AIToday Live

S07E89 - AI & AI-agents: de grote vragensessie

Aigency by Info Support Season 7 Episode 89

Gast Joop Snijder bespreekt in deze aflevering van AIToday Live de toekomst van AI-agents in de verzekeringswereld. Hij legt uit wat AI-agents zijn en hoe ze de interactie tussen verzekeraars en klanten kunnen veranderen.

Snijder adviseert bedrijven om hun communicatie aan te passen voor zowel mensen als machines. Hij benadrukt het belang van transparantie bij het gebruik van AI en geeft tips voor het optimaal inzetten van AI-agents.

De podcast behandelt ook praktische vraagstukken rond privacy, verantwoordelijkheid en monitoring bij het gebruik van AI in de verzekeringssector.

Onderwerpen

  • Definitie en rol van AI-agents in de verzekeringswereld
  • Balans tussen automatisering en menselijke verantwoordelijkheid
  • Omgaan met privacy en persoonsgegevens
  • Verantwoordelijkheid en aansprakelijkheid van AI-agents
  • Tips voor optimale samenwerking met AI-agents
Links

Genoemde entiteiten: Sensire - Verbond van Verzekeraars

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:21,620 --> 00:00:23,020
We hebben een bijzondere aflevering. We gaan vragen beantwoorden van een webinar die

2
00:00:30,020 --> 00:00:31,920
Ik gehad heb met een collega Wilco de Vries.

3
00:00:32,180 --> 00:00:33,580
Voor het verbond van verzekeraars.

4
00:00:34,559 --> 00:00:36,720
En we konden daar niet alle vragen behandelen.

5
00:00:36,870 --> 00:00:37,580
Dus we hebben gezegd.

6
00:00:37,700 --> 00:00:39,420
Daar maken we dan een mooie aflevering van.

7
00:00:39,960 --> 00:00:41,800
Want ik denk dat de vragen die gesteld zijn.

8
00:00:42,620 --> 00:00:44,540
Niet alleen interessant zijn voor verzekeraars.

9
00:00:44,640 --> 00:00:44,960
Sterker nog.

10
00:00:45,070 --> 00:00:47,380
Ik denk dat dat heel breed heel erg interessant is.

11
00:00:48,940 --> 00:00:51,020
Dus dat is eigenlijk het hele idee van vandaag.

12
00:00:51,420 --> 00:00:52,100
Lijkt me leuk toch?

13
00:00:52,300 --> 00:00:52,780
Allemaal vragen.

14
00:00:53,900 --> 00:00:54,100
Nou ja.

15
00:00:54,170 --> 00:00:56,360
Laten we maar meteen beginnen met de eerste toch?

16
00:00:56,640 --> 00:00:56,700
Ja.

17
00:00:56,910 --> 00:00:57,820
En we hebben ze niet gesorteerd.

18
00:00:57,850 --> 00:00:59,780
Dus we gaan gewoon op volgorde van boven naar beneden.

19
00:00:59,820 --> 00:01:02,520
Dus we gaan direct aan de slag met de eerste vraag.

20
00:01:03,200 --> 00:01:03,980
En die luidt als volgt.

21
00:01:04,660 --> 00:01:05,960
Wat zal er eerder gebeuren?

22
00:01:06,640 --> 00:01:09,060
Oeh, dat is al een mooie opbouw van de vraag moet ik zeggen.

23
00:01:09,720 --> 00:01:14,640
Dat AI agents in de verzekeringswereld ons helperclaims sneller af te handelen.

24
00:01:15,180 --> 00:01:19,460
Of dat ze zelf een schadeclaim indienen omdat wij ze te veel prompts geven.

25
00:01:20,840 --> 00:01:21,400
Te veel prompts?

26
00:01:21,720 --> 00:01:23,600
Ja, je dacht ergens heet. Ik zag er je ook.

27
00:01:24,480 --> 00:01:27,660
Ja, maar dat is eigenlijk van nog een keer.

28
00:01:29,980 --> 00:01:34,100
Dus eerst gaan de AI agents de verzekeringswereld helpen de claim sneller af te handelen.

29
00:01:34,220 --> 00:01:34,440
Oh ja.

30
00:01:35,579 --> 00:01:40,520
Of dat de AI agents zelf een schadeclaim indienen omdat wij ze te veel prompts geven.

31
00:01:42,900 --> 00:01:44,020
Ja, dat is een hele goede vraag.

32
00:01:44,220 --> 00:01:46,240
Dat is natuurlijk een beetje een kijkje in de toekomst.

33
00:01:46,240 --> 00:01:47,740
Dat is wat altijd een beetje lastig is.

34
00:01:47,940 --> 00:01:54,600
Maar ik denk op korte termijn dat het inderdaad kan helpen om je schadeclaims sneller af te handelen.

35
00:01:56,439 --> 00:01:59,260
Dus AI en of het nou agents zijn of niet.

36
00:01:59,560 --> 00:02:01,040
Dat maakt me niet zoveel uit.

37
00:02:02,360 --> 00:02:05,960
Kunnen je heel goed helpen bij allerlei standaardclaims.

38
00:02:07,000 --> 00:02:09,080
Maar wat er zeker gaat gebeuren.

39
00:02:09,560 --> 00:02:13,500
Is dat mensen persoonlijke agents gaan inzetten.

40
00:02:14,220 --> 00:02:15,520
Om claims in te gaan dienen.

41
00:02:16,020 --> 00:02:18,980
Dus als je met AI de drempel verlaagt.

42
00:02:19,560 --> 00:02:21,280
Om claims in te gaan dienen.

43
00:02:21,500 --> 00:02:23,920
Dan kan je het denk ik als verzekeraar.

44
00:02:24,280 --> 00:02:25,920
Maar ook als je een klantenservice hebt.

45
00:02:25,940 --> 00:02:26,560
Of wat dan ook.

46
00:02:27,140 --> 00:02:33,200
Dat klanten eerder geneigd zijn om contact met je te leggen, maar dan via een agent.

47
00:02:34,560 --> 00:02:36,100
Want daar is dan heel weinig moeite voor.

48
00:02:37,180 --> 00:02:39,400
Dus daar moet je je denk ik op gaan voorbereiden.

49
00:02:40,960 --> 00:02:47,280
Waarbij je dan nu misschien een chatbot hebt die van alles aan vragen voor jou afhandelt.

50
00:02:48,060 --> 00:02:51,420
Dat daar en grotere volumes op komen, misschien complexere vragen.

51
00:02:52,400 --> 00:02:53,720
En inderdaad denk ik meer claims.

52
00:02:55,020 --> 00:02:56,420
En hoe kan je je daarop voorbereiden?

53
00:02:57,820 --> 00:03:11,400
Ja, één is denk ik dat je moet gaan kijken naar, nu is voor heel veel bedrijven zijn website, is de plek waarin je mensen informeert, waar mensen van alles vinden.

54
00:03:12,540 --> 00:03:18,040
Dat je ook een versie moet hebben die dus goed te lezen is door agents.

55
00:03:19,060 --> 00:03:23,660
Dus bedenk dat je een ChatGPT onder steroids hebt.

56
00:03:23,880 --> 00:03:28,600
Of misschien wel juist ChatGPT, want die biedt uiteindelijk steeds meer mogelijkheden aan.

57
00:03:29,600 --> 00:03:35,660
Er komt ook een agentversie, dat je zelf agents in ChatGPT kan gaan bouwen.

58
00:03:37,020 --> 00:03:41,920
Is er al. Die is recentelijk live gegaan. AgentKit heet die volgens mij.

59
00:03:41,920 --> 00:03:42,780
Oh, nou hier, kijk.

60
00:03:42,780 --> 00:03:47,060
Dus met hele workflows, met acties die je erbij kan definiëren zonder code te schrijven,

61
00:03:47,320 --> 00:03:49,200
Kan je inmiddels aan elkaar ketenen.

62
00:03:49,380 --> 00:03:52,340
Ja, dus mensen gaan dat uiteraard doen.

63
00:03:53,760 --> 00:04:00,640
En dan is het handig dat dit soort tooling heel goed jouw website kunnen lezen.

64
00:04:01,040 --> 00:04:03,600
Maar die moeten dat wel kunnen lezen als een machine.

65
00:04:04,280 --> 00:04:07,160
Dus waar je het eerst zou structureren als mens.

66
00:04:07,420 --> 00:04:08,820
Zodat de mens het goed kan lezen.

67
00:04:09,500 --> 00:04:11,220
En heb je misschien mooie plaatjes bij.

68
00:04:12,680 --> 00:04:14,420
Maakt allemaal niet zoveel uit.

69
00:04:15,980 --> 00:04:17,420
Heb je dan te maken met een machine.

70
00:04:17,859 --> 00:04:18,920
Die kijkt niet naar de plaatjes.

71
00:04:19,010 --> 00:04:21,100
Die wil gewoon de tekst goed gestructureerd hebben.

72
00:04:21,600 --> 00:04:22,620
En daar snel kunnen vinden.

73
00:04:23,860 --> 00:04:24,660
Wat uiteindelijk.

74
00:04:25,320 --> 00:04:26,500
Hoe je een claim indient.

75
00:04:27,160 --> 00:04:28,860
Misschien ook juist uitsluit criteria.

76
00:04:29,200 --> 00:04:30,440
Dat de agent ook kan besluiten.

77
00:04:30,440 --> 00:04:32,440
Om juist niet de claim in te dienen.

78
00:04:32,960 --> 00:04:35,320
Dus dat je zorgt dat je communiceert.

79
00:04:36,020 --> 00:04:36,900
Voor een agent.

80
00:04:37,940 --> 00:04:40,140
Dus hopelijk dat ook de consumenten agents.

81
00:04:40,380 --> 00:04:41,100
Daarin rekening houden.

82
00:04:41,100 --> 00:04:43,640
Want het voldoet niet aan de voorwaarden.

83
00:04:43,680 --> 00:04:44,780
We hoeven geen claim in te dienen.

84
00:04:44,940 --> 00:04:46,740
Of niet een hele overload gaan krijgen.

85
00:04:46,900 --> 00:04:47,540
Bijvoorbeeld, ja.

86
00:04:47,790 --> 00:04:49,240
En er zal ook fraudedetectie.

87
00:04:49,260 --> 00:04:52,420
Zal hier ook wat extra werk hebben in de beginfase, verwacht ik zo.

88
00:04:52,710 --> 00:04:54,140
Van de schadeclaims die ingediend worden.

89
00:04:54,400 --> 00:04:55,240
Dat denk ik ook wel, ja.

90
00:04:55,550 --> 00:04:56,140
Ja, zeker.

91
00:04:57,700 --> 00:04:58,060
Dankjewel.

92
00:04:58,540 --> 00:04:59,080
Helder antwoord.

93
00:04:59,660 --> 00:05:01,060
Gaan we door naar de volgende vraag.

94
00:05:02,590 --> 00:05:04,140
En gaan we weer om de toekomst in kijken.

95
00:05:04,240 --> 00:05:05,860
Dus altijd met een korrel z'n zou natuurlijk.

96
00:05:06,400 --> 00:05:10,800
Als we vooruit kijken, zullen dan AI agents in de toekomst zelf risico's gaan inschatten?

97
00:05:11,080 --> 00:05:12,740
En verzekeringen gaan afsluiten voor mensen?

98
00:05:13,160 --> 00:05:17,960
Of worden ze eerder onze digitale collega's die ons gaan ondersteunen bij deze keuzes?

99
00:05:18,440 --> 00:05:26,420
Oh, er zit ook weer zowel aan de ondernemerskant als de consumentenkant.

100
00:05:28,160 --> 00:05:32,820
Laten we eens beginnen met vanuit je organisatie.

101
00:05:34,460 --> 00:05:37,019
Gaan agents risico-inschattingen maken?

102
00:05:37,580 --> 00:05:39,120
Ja, dat hangt natuurlijk van jezelf af.

103
00:05:39,840 --> 00:05:45,560
Maar vind je het, is het handig, helpt het, dan zou het kunnen.

104
00:05:46,880 --> 00:05:49,820
Je moet wel opletten dat je binnen de AI Act blijft.

105
00:05:50,080 --> 00:05:57,860
En zelfs, er zijn andere wetten, dat je niet zomaar geautomatiseerde besluiten mag nemen.

106
00:05:58,000 --> 00:06:00,900
Dus daar moet je heel goed naar kijken van wat mag wel, wat mag niet.

107
00:06:02,380 --> 00:06:06,840
En dan is het aan jezelf om te kijken van hoeveel autonomie, want daar gaat het denk ik hier over.

108
00:06:06,960 --> 00:06:11,040
Hoeveel autonomie wil je leggen bij een AI agent?

109
00:06:11,620 --> 00:06:13,760
Dat je dat zelf besluit.

110
00:06:13,820 --> 00:06:20,740
Dus hoeveel risico ben je zelf bereid om te nemen dat een AI agent het verkeerd heeft?

111
00:06:22,600 --> 00:06:25,180
Of dat hij wat ruimhartiger is dan dat je zou willen.

112
00:06:26,680 --> 00:06:31,100
Als je daar heel strikt in wil zijn, dan leg je natuurlijk minder autonomie bij zo'n agent.

113
00:06:31,340 --> 00:06:33,000
Dan als je daar minder strikt in wil zijn.

114
00:06:33,400 --> 00:06:34,899
Dus dat zijn ontwerpkeuzes.

115
00:06:35,560 --> 00:06:38,520
Dus daar kan je niet zomaar zeggen van ja of nee.

116
00:06:39,980 --> 00:06:44,720
Een andere deel van de vraag slaat een beetje terug op wat we eerder natuurlijk zeiden.

117
00:06:44,840 --> 00:06:48,760
Ja, daar gaan consumenten, gaan gewoon die agents inzetten.

118
00:06:49,020 --> 00:06:53,520
Ik denk dat je daar echt, daar moet je je gewoon nu al op gaan voorbereiden.

119
00:06:55,120 --> 00:06:55,480
Helder.

120
00:06:57,760 --> 00:07:01,880
De volgende vraag is, als AI agents, aangezien we toch die kant op zitten,

121
00:07:02,420 --> 00:07:05,260
Steeds autonome beslissingen nemen binnen het verzekeringsproces.

122
00:07:05,590 --> 00:07:09,700
Waar ligt de balans tussen automatisering en de menselijke verantwoordelijkheid?

123
00:07:10,040 --> 00:07:11,340
Dat is een beetje in de verlengde van de vorige.

124
00:07:12,000 --> 00:07:15,480
En hoe maak je dit transparant richting klanten en toezichthouders?

125
00:07:15,940 --> 00:07:21,380
En ik denk niet, dat speelt natuurlijk niet alleen in de verzekeringsmarkt, maar finance en overal waar toezicht natuurlijk essentieel is.

126
00:07:23,120 --> 00:07:26,740
Ja, de mate van autonomie, wat ik net al zei, is een ontwerpkeuze.

127
00:07:27,580 --> 00:07:30,380
Waarbij je wel het zodanig kan gaan aanpakken.

128
00:07:30,660 --> 00:07:32,880
Dat zou mijn advies zijn.

129
00:07:33,440 --> 00:07:35,640
Is dat je begint met weinig autonomie.

130
00:07:36,240 --> 00:07:39,400
Dus dat je eerst kijkt of de technologie helpt.

131
00:07:39,500 --> 00:07:40,240
Dat het werkt.

132
00:07:40,800 --> 00:07:43,060
En dat je hoe beter het gaat.

133
00:07:44,040 --> 00:07:47,720
Hoe meer autonomie je misschien gaat afgeven.

134
00:07:49,960 --> 00:07:52,060
Dat helpt ook in het vertrouwen.

135
00:07:52,200 --> 00:07:55,100
Zowel van jezelf als van de klant.

136
00:07:56,400 --> 00:07:58,180
En waar dan die grens ligt.

137
00:07:58,740 --> 00:08:01,140
Dat zijn allemaal keuzes.

138
00:08:02,240 --> 00:08:03,740
Dat kunnen ethische keuzes zijn.

139
00:08:03,800 --> 00:08:05,360
Dat kunnen technische keuzes zijn.

140
00:08:05,480 --> 00:08:07,420
Dat kan een adoptiekeuze zijn.

141
00:08:07,580 --> 00:08:10,640
Omdat je medewerkers het gewoon nog niet helemaal vertrouwen.

142
00:08:11,840 --> 00:08:12,820
Dus waar die grens ligt.

143
00:08:12,920 --> 00:08:15,140
Die zul je moeten gaan opzoeken.

144
00:08:16,340 --> 00:08:18,540
En ik denk dat die in de tijd verschuift.

145
00:08:18,620 --> 00:08:19,280
Dus wat ik zei.

146
00:08:19,420 --> 00:08:21,660
Je begint met weinig autonomie.

147
00:08:22,340 --> 00:08:24,360
En die autonomie kan je steeds verder verleggen.

148
00:08:24,580 --> 00:08:25,980
Dat het steeds autonomer is.

149
00:08:26,580 --> 00:08:32,520
Tot het moment dat het gewoon niet meer prettig is.

150
00:08:33,219 --> 00:08:36,340
En heb je een voorbeeld uit de praktijk waarin je dat hebt ervaren?

151
00:08:36,340 --> 00:08:38,960
Dat het zo doorgegroeid is naar steeds meer autonomie?

152
00:08:42,280 --> 00:08:45,360
Oei, dat vind ik wel een lastige.

153
00:08:47,180 --> 00:08:55,500
Uiteindelijk moeten we ook erkennen dat de stadia van de AI agents, dat we daar echt nog wel heel vroeg in zitten.

154
00:08:56,500 --> 00:08:58,720
Dus ik denk dat het antwoord nog nee is.

155
00:09:00,470 --> 00:09:07,480
Er zijn nog maar heel weinig organisaties die echt in bedrijfskritische processen AI agents hebben ingezet.

156
00:09:09,300 --> 00:09:14,860
Wat je ziet is dat in de marketing worden veel agents ingezet.

157
00:09:15,020 --> 00:09:19,520
Wij zetten natuurlijk agents in bij het coderen, dus bij het programmeren.

158
00:09:20,120 --> 00:09:24,360
Dat zijn de plekken waar nu agents echt toegevoegde waarde hebben.

159
00:09:26,900 --> 00:09:34,100
Dus ik heb nog niet uit een ander segment, zeker niet uit de verzekeringsbranche daar, een voorbeeld van.

160
00:09:35,120 --> 00:09:36,520
Dat is mooi toch? Dat is het eerlijke verhaal.

161
00:09:36,640 --> 00:09:38,980
Want iedereen spreekt erover alsof ze er allemaal al zijn.

162
00:09:39,260 --> 00:09:41,800
Ja, zeker. Nee, het valt niet mee.

163
00:09:42,080 --> 00:09:43,360
Het is natuurlijk ook wel een beetje lastig.

164
00:09:43,480 --> 00:09:46,660
Wanneer is het een AI agent? Dat verschilt qua terminologie ook nog wel.

165
00:09:47,380 --> 00:09:50,960
Misschien wel goed om even kort toe te lichten voor de luisteraars.

166
00:09:51,620 --> 00:09:52,980
Wanneer is het een AI agent?

167
00:09:53,660 --> 00:09:54,660
Ja, nee.

168
00:09:56,160 --> 00:09:59,380
Waar ik bang voor ben is dat zo direct alles een AI agent gaat heten.

169
00:09:59,540 --> 00:10:01,900
Dus als er maar een klein stukje AI in zit.

170
00:10:02,120 --> 00:10:04,260
Of dat we een prompt ergens tegenaan houden.

171
00:10:04,560 --> 00:10:06,560
Dat iets een AI agent heet.

172
00:10:07,860 --> 00:10:12,360
In mijn beleving is een AI agent een stukje software.

173
00:10:13,140 --> 00:10:14,100
Die kan waarnemen.

174
00:10:14,340 --> 00:10:16,120
Dus die kan de omgeving waarnemen.

175
00:10:16,340 --> 00:10:19,340
En de omgeving kan een data zijn die je krijgt.

176
00:10:19,340 --> 00:10:21,200
Maar dat kan ook dus user input zijn.

177
00:10:21,300 --> 00:10:24,600
En daar kunnen sensoren zijn uit de IoT.

178
00:10:25,680 --> 00:10:27,200
Van alles en nog wat ik kan waarnemen.

179
00:10:29,420 --> 00:10:31,440
Vervolgens kan er een plan worden gemaakt.

180
00:10:31,900 --> 00:10:33,520
Van wat ga ik nou doen?

181
00:10:34,900 --> 00:10:36,120
Dat wordt uitgevoerd.

182
00:10:36,380 --> 00:10:37,420
De plan wordt uitgevoerd.

183
00:10:37,440 --> 00:10:40,600
En daar kunnen allerlei tools ook voor gebruikt worden.

184
00:10:41,700 --> 00:10:43,780
En dat kan gewoon zoiets simpels zijn als van.

185
00:10:44,680 --> 00:10:45,820
Wat is de huidige datum?

186
00:10:46,080 --> 00:10:47,160
Is een bepaalde tool.

187
00:10:47,340 --> 00:10:49,060
Maar dat kan ook zijn dat je kan browsen.

188
00:10:49,660 --> 00:10:50,840
Dat kan een agent doen.

189
00:10:52,320 --> 00:10:54,000
en vervolgens kan die leren van de feedback

190
00:10:54,200 --> 00:10:55,500
en dat klinkt heel heftig

191
00:10:56,220 --> 00:10:57,840
maar dat kan zoiets zijn

192
00:10:59,400 --> 00:11:00,940
dat heb ik in dat webinar

193
00:11:01,040 --> 00:11:02,040
heb ik dat ook laten zien

194
00:11:02,680 --> 00:11:04,280
de meest eenvoudige vorm van mij

195
00:11:04,540 --> 00:11:06,520
van een agent is een slimme thermostaat

196
00:11:07,480 --> 00:11:09,620
die kan dus de omgeving waarnemen

197
00:11:09,620 --> 00:11:11,700
dus de temperatuur kijken

198
00:11:12,040 --> 00:11:13,800
die heeft de huidige tijd ook

199
00:11:14,860 --> 00:11:16,560
die heeft een plan

200
00:11:17,300 --> 00:11:17,640
namelijk

201
00:11:17,700 --> 00:11:19,839
ik moet een kamer

202
00:11:19,860 --> 00:11:22,800
Die moet ik op een bepaalde temperatuur krijgen of houden.

203
00:11:23,600 --> 00:11:28,160
En vervolgens bepaalt de slimme thermostaat.

204
00:11:28,250 --> 00:11:33,440
Die bepaalt of de verwarming moet aan worden gezet.

205
00:11:33,440 --> 00:11:33,880
Ja of nee.

206
00:11:35,060 --> 00:11:36,460
En die kan leren van patronen.

207
00:11:36,460 --> 00:11:36,860
Die zegt van.

208
00:11:37,270 --> 00:11:41,120
Oh ja maar door de week moet het misschien eerder aan dan in het weekend.

209
00:11:41,800 --> 00:11:44,500
Dat is eigenlijk de simpelste vorm van een agent.

210
00:11:44,840 --> 00:11:46,460
Er zit nog geen AI achter.

211
00:11:46,650 --> 00:11:49,000
Maar dat is eigenlijk wat een agent doet.

212
00:11:49,300 --> 00:11:55,360
Dus waarnemen, actie uitvoeren en op basis van feedback plannen aanpassen.

213
00:11:55,570 --> 00:11:56,940
Ja, om een doel te bereiken.

214
00:11:57,690 --> 00:11:57,800
Ja.

215
00:11:58,620 --> 00:11:59,340
Helder, helder.

216
00:12:00,660 --> 00:12:03,240
Dan gaan we een beetje door op de vorige vragen ook.

217
00:12:03,240 --> 00:12:05,240
En dat zit hem in transparantie.

218
00:12:06,120 --> 00:12:10,280
Hoe richt je transparantie in voor de verzekerden, ook in het kader van privacy?

219
00:12:10,600 --> 00:12:11,680
Maar als we hem even wat breder trekken.

220
00:12:11,840 --> 00:12:15,220
Hoe ga je om met transparantie bij AI en AI agents?

221
00:12:16,000 --> 00:12:18,240
Nou, en die transparantie zat ook al in de vorige vraag.

222
00:12:18,420 --> 00:12:20,420
Die had ik nog niet beantwoord.

223
00:12:21,200 --> 00:12:25,840
Transparantie is in die zin wel een lastig begrip.

224
00:12:26,080 --> 00:12:28,960
Van transparantie over wat.

225
00:12:29,760 --> 00:12:31,820
Dus je moet sowieso zo direct transparant zijn.

226
00:12:32,840 --> 00:12:35,540
Indat je met AI spreekt.

227
00:12:35,780 --> 00:12:38,340
Dus stel je hebt een chatbot.

228
00:12:39,840 --> 00:12:41,500
Die iets van klantenservice doet.

229
00:12:41,680 --> 00:12:44,400
Dan moet je je kenbaar maken volgens de AI Act.

230
00:12:44,600 --> 00:12:45,640
Zoals ik het begrepen heb.

231
00:12:46,300 --> 00:12:48,720
Dat je met een chatbot praat.

232
00:12:48,780 --> 00:12:51,760
Ook al heeft hij een menselijke verschijningsvorm.

233
00:12:51,840 --> 00:12:53,060
Een avatar of weet ik veel wat.

234
00:12:53,440 --> 00:12:54,540
Moet het duidelijk gewoon zijn.

235
00:12:55,540 --> 00:12:59,020
Dat je met AI of een AI agent spreekt.

236
00:12:59,360 --> 00:13:00,900
Dus dat is een vorm van transparantie.

237
00:13:01,620 --> 00:13:03,440
Maar je hebt natuurlijk ook transparantie over.

238
00:13:03,620 --> 00:13:04,920
Wat doet hij?

239
00:13:06,019 --> 00:13:08,680
En dat klinkt een beetje flauw.

240
00:13:08,680 --> 00:13:10,820
Maar dat zijn ook weer keuzes die je zelf maakt.

241
00:13:11,980 --> 00:13:14,700
Want je wil niet alles aangeven.

242
00:13:15,120 --> 00:13:17,800
Hoe jij je schadeclaims misschien afhandelt.

243
00:13:19,280 --> 00:13:22,080
Dan ben je denk ik transparant in de voorwaarden.

244
00:13:22,720 --> 00:13:25,920
En je bent transparant in hoe je het beoordeelt.

245
00:13:26,340 --> 00:13:27,340
Maar misschien niet helemaal.

246
00:13:28,740 --> 00:13:30,700
Tot het laatste stukje.

247
00:13:31,110 --> 00:13:32,460
Dat mensen precies weten.

248
00:13:32,740 --> 00:13:34,920
Als ik nou precies dit vraag of dit doe.

249
00:13:36,100 --> 00:13:37,740
Dat ik dan weet dat ik er wel doorheen kom.

250
00:13:39,480 --> 00:13:43,240
Dus ik denk dat je zo transparant mogelijk bent.

251
00:13:45,040 --> 00:13:46,840
En dan hebben we het echt over het gebruik.

252
00:13:47,380 --> 00:13:48,680
Dat is dan de transparantie.

253
00:13:49,020 --> 00:13:53,940
Als je het hebt over, misschien bij transparantie, ook uitlegbaarheid wordt gevraagd.

254
00:13:54,640 --> 00:13:58,520
Dat is iets wat je zelf moet gaan ontwerpen in je systemen.

255
00:13:58,620 --> 00:14:01,020
Dat je ook uitleg krijgt van je AI.

256
00:14:02,500 --> 00:14:04,500
Dat die komt tot een bepaald besluit.

257
00:14:05,860 --> 00:14:07,700
Maar dat is vaak een wat ander vakgebied.

258
00:14:08,480 --> 00:14:11,960
En weten welke data er allemaal gebruikt wordt om te komen tot een beslissing.

259
00:14:13,260 --> 00:14:15,400
Is dat dan transparantie?

260
00:14:15,550 --> 00:14:17,040
Of is dat explainability?

261
00:14:19,360 --> 00:14:24,620
Dus als je het hebt over aangeven wat je allemaal gebruikt hebt.

262
00:14:25,430 --> 00:14:28,800
Om tot bijvoorbeeld een afhandeling van een schadeclaim te komen.

263
00:14:28,800 --> 00:14:30,280
Dan is dat denk ik transparantie.

264
00:14:30,290 --> 00:14:33,300
Je zegt van ik heb dit allemaal in overweging genomen.

265
00:14:35,760 --> 00:14:40,020
Als je het hebt over de redenatie van het systeem.

266
00:14:40,500 --> 00:14:42,160
Over hoe de AI agent.

267
00:14:42,660 --> 00:14:44,080
Welke stappen die genomen heeft.

268
00:14:44,560 --> 00:14:46,100
Dan hebben we het over uitlegbaarheid.

269
00:14:48,120 --> 00:14:48,440
Helder.

270
00:14:51,340 --> 00:14:52,280
Heb je een voorbeeld.

271
00:14:52,480 --> 00:14:54,340
Of een verrassende of creatief gebruik.

272
00:14:54,340 --> 00:14:55,220
Van een AI agent.

273
00:14:55,340 --> 00:14:57,000
Die je de afgelopen tijd bent tegengekomen.

274
00:14:57,580 --> 00:14:59,080
Waar we van kunnen leren.

275
00:14:59,560 --> 00:15:00,780
Als inspiratie.

276
00:15:02,440 --> 00:15:03,120
Ja zeker.

277
00:15:05,100 --> 00:15:07,040
Wat ik een hele mooie vind.

278
00:15:08,100 --> 00:15:10,220
Misschien heb ik hem al een paar keer verteld.

279
00:15:10,400 --> 00:15:12,420
Ik weet eigenlijk niet eens of ik deze ook in de...

280
00:15:12,600 --> 00:15:14,220
Volgens mij had ik deze ook in de webinar zitten.

281
00:15:16,220 --> 00:15:20,780
Maar dat gaat over een AI agent die ingezet is bij Sensire.

282
00:15:21,940 --> 00:15:23,900
Daar schrijf ik ook over in mijn boek.

283
00:15:23,980 --> 00:15:27,060
Een heel mooi interview met de data scientist daar.

284
00:15:27,760 --> 00:15:31,160
En wat zij gedaan hebben, zij zijn een grote zorginstelling.

285
00:15:31,420 --> 00:15:33,580
Tenminste thuiswijkverpleging moet ik zeggen.

286
00:15:35,080 --> 00:15:39,360
En als je als wijkverpleger een aantal weken op vakantie bent geweest.

287
00:15:40,880 --> 00:15:51,580
dan is het echt wel heel veel tijd dat je moet gaan investeren in het teruglezen van alles wat er over jouw cliënten is gezegd.

288
00:15:52,080 --> 00:15:57,100
Dus je komt thuis, stel op maandag moet je beginnen en op zondagavond wat ze dan doen,

289
00:15:57,550 --> 00:16:01,240
is dat ze dus al die dossiers, bijvoorbeeld vijf of zes cliënten de volgende dag,

290
00:16:01,740 --> 00:16:07,140
moet je dus van vijf of zes van dit soort cliënten, moet je van al die diensten,

291
00:16:07,500 --> 00:16:11,220
Dus iedereen die dienst heeft gehad, die schrijft een stukje in dat dossier.

292
00:16:12,900 --> 00:16:15,780
En dat is niet erg als je dat de volgende dag moet lezen.

293
00:16:16,120 --> 00:16:18,400
Want dan heb je misschien vier stukjes van collega's.

294
00:16:18,410 --> 00:16:21,800
Maar dus na drie weken, nou ja, reken maar uit.

295
00:16:22,200 --> 00:16:22,940
Drie keer zeven keer vier.

296
00:16:23,940 --> 00:16:25,980
Dan heb je behoorlijk wat door te lezen.

297
00:16:26,120 --> 00:16:29,760
Plus dat zijn allemaal, niet alles is even relevant.

298
00:16:29,890 --> 00:16:33,860
Dus die mensen zijn heel lang bezig om up to speed te komen.

299
00:16:34,700 --> 00:16:40,340
Wat is er nou veranderd aan medicatie, aan mobiliteit van deze cliënten?

300
00:16:40,580 --> 00:16:43,780
Het is echt belangrijke zaken voor hun leven.

301
00:16:44,720 --> 00:16:45,640
Wat hebben zij nou gedaan?

302
00:16:45,980 --> 00:16:47,780
Ze hebben gezegd dat het wel raar is.

303
00:16:47,780 --> 00:16:52,140
We willen goed zijn voor onze werknemers.

304
00:16:52,760 --> 00:16:58,640
En die besteden dan dus vrije tijd om goed te zijn voor hun cliënten.

305
00:16:59,400 --> 00:17:02,560
Dus zij hebben dusdanige samenvattingen gemaakt.

306
00:17:03,300 --> 00:17:05,500
In een hele gestructureerde manier.

307
00:17:06,040 --> 00:17:11,300
Waarin juist de veranderingen, de echt wezenlijke veranderingen.

308
00:17:11,620 --> 00:17:13,339
Dat je die in een paar minuten kan lezen.

309
00:17:15,780 --> 00:17:20,620
Zij zijn van zondagavond laat gegaan.

310
00:17:20,620 --> 00:17:22,319
Na een paar minuten dat je kan inlezen.

311
00:17:22,959 --> 00:17:25,480
En ze hebben aangegeven, dat vind ik nog mooier namelijk.

312
00:17:26,360 --> 00:17:28,540
Dat ze nog een stapje zouden willen maken.

313
00:17:29,820 --> 00:17:32,220
Dat ze dan namelijk die samenvatting willen omzetten.

314
00:17:32,560 --> 00:17:33,960
Van tekst naar spraak.

315
00:17:34,440 --> 00:17:37,400
Zodat je in de auto op weg naar de cliënt.

316
00:17:37,940 --> 00:17:39,500
Dus helemaal geen eigen tijd meer.

317
00:17:40,080 --> 00:17:42,100
Dat je dat te horen krijgt.

318
00:17:42,100 --> 00:17:43,440
Dus je komt bij je cliënt aan.

319
00:17:43,530 --> 00:17:46,020
En je bent eigenlijk gewoon helemaal up to date.

320
00:17:46,180 --> 00:17:47,760
Je weet precies wat er veranderd is.

321
00:17:48,400 --> 00:17:50,720
En je kan de goede zorg leveren.

322
00:17:50,920 --> 00:17:52,860
Ik denk dat het zelfs kwaliteitsverhogend werkt.

323
00:17:53,520 --> 00:17:54,980
En het is werkdrukverlagend.

324
00:17:55,540 --> 00:17:57,040
En je bent minder vrije tijd kwijt.

325
00:17:57,100 --> 00:17:58,380
Als dat niet inspirerend is.

326
00:17:58,540 --> 00:17:59,100
Ik wou net zeggen.

327
00:17:59,220 --> 00:18:00,620
Die hebben gewoon eigenlijk een persoonlijke podcast.

328
00:18:01,180 --> 00:18:02,620
Om even weer op de spieker te raken.

329
00:18:02,920 --> 00:18:04,980
Dat klinkt heel erg fijn inderdaad.

330
00:18:06,000 --> 00:18:06,800
Heel mooi voorbeeld.

331
00:18:10,760 --> 00:18:11,900
Een praktische vraag.

332
00:18:13,799 --> 00:18:14,940
Met name denk ik.

333
00:18:15,200 --> 00:18:16,640
Tijdens de sessie van verzekeraars.

334
00:18:16,800 --> 00:18:17,920
Dat veel van de verzekeringen.

335
00:18:17,960 --> 00:18:20,000
En claims natuurlijk met behulp van foto's gebeurt.

336
00:18:21,080 --> 00:18:22,200
Als een AI agent.

337
00:18:22,300 --> 00:18:23,780
Foto's en documenten beoordeelt.

338
00:18:24,340 --> 00:18:26,020
Staan hier persoonsgegevens op.

339
00:18:26,440 --> 00:18:27,880
Dat zouden ze vaak gebeuren denk ik.

340
00:18:28,300 --> 00:18:28,940
Hoe ga je daarmee om?

341
00:18:30,340 --> 00:18:31,800
Ja, dat is een hele praktische vraag.

342
00:18:32,040 --> 00:18:32,880
Ja, een hele goede vraag.

343
00:18:34,120 --> 00:18:37,620
Nou ja, in principe hoeft het helemaal niet zo erg te zijn.

344
00:18:38,500 --> 00:18:40,680
Want je hebt natuurlijk gewoon te maken met doelbinding.

345
00:18:43,140 --> 00:18:44,700
Dus je hebt het denk ik ook nodig.

346
00:18:45,480 --> 00:18:47,560
Dat je weet dat het ook om de auto gaat.

347
00:18:48,540 --> 00:18:49,920
Of tenminste, ik ga even vanuit.

348
00:18:49,980 --> 00:18:50,900
Er is schade aan de auto.

349
00:18:51,300 --> 00:18:51,920
Laten we dat nemen.

350
00:18:52,180 --> 00:18:53,100
Er is schade aan de auto.

351
00:18:53,980 --> 00:18:57,360
En dan is het ook goed dat daar het kenteken op staat.

352
00:18:57,500 --> 00:19:01,620
dat je ook de juiste auto aan het beoordelen bent.

353
00:19:02,660 --> 00:19:05,420
Aan de andere kant kunnen mensen misschien foto's opsturen

354
00:19:06,180 --> 00:19:08,260
waarop persoonsgegevens staan die je niet nodig hebt.

355
00:19:08,700 --> 00:19:11,360
Die zul je daar op de een of andere manier af moeten halen.

356
00:19:12,900 --> 00:19:14,760
Dus als daar gezichten op staan van mensen.

357
00:19:17,460 --> 00:19:20,320
Dus in die zin is dat denk ik niet heel veel anders

358
00:19:20,720 --> 00:19:25,000
dan dat als mensen ook persoonsgegevens via de telefoon aan je melden

359
00:19:25,000 --> 00:19:25,980
die je niet nodig hebt.

360
00:19:26,120 --> 00:19:28,020
Je moet zorgen dat dat verwijderd wordt.

361
00:19:28,410 --> 00:19:37,300
Ik denk dat deze vraag vooral te maken heeft met wat nou als je AI tools van derde gebruikt.

362
00:19:37,880 --> 00:19:38,740
Hoe train je het model?

363
00:19:38,990 --> 00:19:40,020
Staat er als vervolgvraag?

364
00:19:40,020 --> 00:19:42,020
Ja, laten we daar zo direct op komen.

365
00:19:44,960 --> 00:19:52,920
Kijk, je kan niet zomaar deze foto's even opsturen naar ChatGPT en het daar doorheen gooien.

366
00:19:53,040 --> 00:19:59,880
Dus je hebt te maken met dat je deze systemen ook weer zelf moet ontwikkelen.

367
00:20:00,560 --> 00:20:01,800
Dat je kijkt naar doelbinding.

368
00:20:02,710 --> 00:20:03,820
Wat geef je het systeem?

369
00:20:04,020 --> 00:20:07,420
Wat kan je aan, als je wel een SaaS product gebruikt.

370
00:20:07,600 --> 00:20:11,460
Moet daar dan eerst de persoonlijke informatie afgehaald worden?
```

371
00:20:12,120 --> 00:20:14,000
Of heb je het lokaal draaien?

372
00:20:14,340 --> 00:20:16,320
En kan je het wel?

373
00:20:17,720 --> 00:20:19,960
Dan heb je daar misschien wat minder last van.

374
00:20:21,340 --> 00:20:26,340
Ook hier geldt weer dat je heel goed moet kijken naar wat schrijft de wet voor.

375
00:20:28,400 --> 00:20:34,900
En wat zijn de voorwaarden als je zo'n SaaS product, een product van derde, als je die gebruikt.

376
00:20:35,140 --> 00:20:40,460
Wat doen zij met de data en welke afspraken heb je daar liggen.

377
00:20:41,400 --> 00:20:44,680
Zogenaamde retentie policies, dus hoe lang bewaren zij de data.

378
00:20:45,660 --> 00:20:46,940
Past dat binnen de wetgeving.

379
00:20:48,160 --> 00:20:50,960
Dat zijn allemaal vraagstukken, dat is heel vervelend.

380
00:20:51,280 --> 00:20:52,380
maar daar moet je induiken.

381
00:20:52,820 --> 00:20:54,800
En dat is niet per se een AI vraagstuk

382
00:20:54,820 --> 00:20:56,960
maar dat is gewoon hoe ga je met je data

383
00:20:57,340 --> 00:20:58,980
en je systemen om, want een foto

384
00:20:59,100 --> 00:21:00,780
via de website uploaden is niet anders

385
00:21:00,940 --> 00:21:02,780
dan het aan AI meegeven. Je moet alleen wel

386
00:21:02,900 --> 00:21:04,520
besef hebben dat die data ergens heen gaat.

387
00:21:04,680 --> 00:21:07,140
En waar gaat het heen en hoe dienen we er mee op te gaan?

388
00:21:07,720 --> 00:21:08,800
Daar zal je gewoon bij stil moeten staan.

389
00:21:08,940 --> 00:21:10,220
En dat zal een stukje IT

390
00:21:11,180 --> 00:21:12,860
support voor nodig zijn om daar misschien een systeem

391
00:21:12,940 --> 00:21:14,880
voor te bouwen. Ja, dus dat is niet zomaar even

392
00:21:14,900 --> 00:21:16,980
een vraag van als je dit doet dan zit je

393
00:21:17,080 --> 00:21:18,760
altijd goed. Nee. En dan

394
00:21:18,860 --> 00:21:20,560
de vervolgvraag erop van, dat heb je.

395
00:21:21,020 --> 00:21:22,620
maar hoe ga je je model trainen

396
00:21:22,940 --> 00:21:24,420
weten dat dit soort data er ook in zit

397
00:21:24,560 --> 00:21:25,940
stel je bent dus zelf een model aan het maken

398
00:21:25,940 --> 00:21:28,440
ga ik even naar dat de vraagsteller hier bedoelt

399
00:21:28,980 --> 00:21:30,240
hoe hou je daar rekening mee

400
00:21:30,880 --> 00:21:31,820
ja ik denk dat je

401
00:21:33,640 --> 00:21:34,540
er wordt heel snel

402
00:21:34,780 --> 00:21:36,480
gesproken over een model

403
00:21:36,840 --> 00:21:37,200
trainen

404
00:21:38,620 --> 00:21:40,580
laten we vooropstellen dat het hier

405
00:21:40,700 --> 00:21:42,620
niet gaat over een taalmodel trainen

406
00:21:42,700 --> 00:21:43,360
want daar heb je gewoon

407
00:21:44,419 --> 00:21:45,760
wat andere zaken voor nodig

408
00:21:46,860 --> 00:21:48,780
dat kost echt miljoenen en miljoenen

409
00:21:49,240 --> 00:21:50,600
dus daar ga ik even niet van uit

410
00:21:51,360 --> 00:21:53,500
als we het hebben over een machine learning model

411
00:21:54,060 --> 00:21:54,440
trainen

412
00:21:55,460 --> 00:21:57,100
ook daar moet je dus weer kijken

413
00:21:57,240 --> 00:21:58,980
wat mag wel, wat mag niet

414
00:21:59,580 --> 00:22:01,540
dus de wet schrijft gewoon hele duidelijke

415
00:22:01,680 --> 00:22:02,580
dingen voor, dat als jij

416
00:22:04,480 --> 00:22:05,180
noem maar

417
00:22:07,059 --> 00:22:07,460
opschrijft

418
00:22:07,660 --> 00:22:09,800
wat iemands afkomst

419
00:22:09,920 --> 00:22:11,360
is, dan mag dat vaak niet

420
00:22:12,040 --> 00:22:12,520
dus daar

421
00:22:13,539 --> 00:22:15,120
is denk ik genoeg over te vinden

422
00:22:15,200 --> 00:22:17,120
wat je daar wel aan, wat je daar niet in mag stoppen

423
00:22:18,500 --> 00:22:19,700
als we het hebben over

424
00:22:20,919 --> 00:22:21,960
een chatbot

425
00:22:22,500 --> 00:22:23,800
waarbij je data

426
00:22:24,440 --> 00:22:26,120
ter beschikking stelt, dat is niet echt

427
00:22:26,200 --> 00:22:27,640
trainen, dat is zogenaamde

428
00:22:28,600 --> 00:22:29,680
Retrieval Augmented Generation

429
00:22:30,000 --> 00:22:31,700
een RAG-system, daar

430
00:22:32,140 --> 00:22:33,960
geef je de extra

431
00:22:34,350 --> 00:22:35,920
context aan het taalmodel

432
00:22:36,120 --> 00:22:37,120
waarbij het taalmodel

433
00:22:37,679 --> 00:22:39,160
antwoorden kan geven.

434
00:22:39,680 --> 00:22:41,360
Dat is geen trainen is dat

435
00:22:42,080 --> 00:22:43,640
maar ook daar moet je dan weer zorgen

436
00:22:43,820 --> 00:22:45,920
dat dan als er geen

437
00:22:45,940 --> 00:22:47,360
doelbinding is, dat die

438
00:22:48,600 --> 00:22:49,920
privacygevoelige gegevens er gewoon

439
00:22:50,300 --> 00:22:51,880
niet in staan. Dus die moet je eruit

440
00:22:52,100 --> 00:22:53,820
filteren. En dat is niet anders

441
00:22:53,920 --> 00:22:55,800
wat jij net ook zei bij welk ander

442
00:22:55,980 --> 00:22:57,920
willekeurig geautomatiseerd

443
00:22:58,880 --> 00:22:59,760
systeem. Dus

444
00:23:00,170 --> 00:23:01,940
alles wat daar geldt, geldt hier ook.

445
00:23:03,880 --> 00:23:05,380
Ik denk zelfs dat er...

446
00:23:05,670 --> 00:23:07,560
Maar goed, ik ben hier geen jurist. Laat dat

447
00:23:08,680 --> 00:23:09,900
vooropstellen. Dat dat

448
00:23:10,120 --> 00:23:12,000
echt niet anders is dan welk ander

449
00:23:12,600 --> 00:23:13,680
geautomatiseerd systeem dan ook.

450
00:23:14,780 --> 00:23:15,860
Dat vermoeden heb ik ook.

451
00:23:15,920 --> 00:23:18,120
Maar ik ben ook niet juridisch onderwerp op dat vlak.

452
00:23:18,300 --> 00:23:20,860
Dus vraag dat zeker ook even na bij de juridische afdeling.

453
00:23:22,140 --> 00:23:23,860
En dat je er rekening moet houden is dus een feit.

454
00:23:24,540 --> 00:23:25,040
Ja, zeker.

455
00:23:25,600 --> 00:23:26,980
Hebben we zo de hele vraag beantwoord?

456
00:23:27,300 --> 00:23:28,160
Ja, dat verwacht ik wel.

457
00:23:28,600 --> 00:23:31,720
En anders, degene die de vraag gesteld heeft, neem alsjeblieft contact eens op.

458
00:23:31,780 --> 00:23:33,020
Daar gaan we graag verder op in.

459
00:23:35,820 --> 00:23:36,580
Een wel leuke vraag.

460
00:23:36,600 --> 00:23:37,800
Ik weet niet of we hem eigenlijk kunnen beantwoorden.

461
00:23:37,920 --> 00:23:39,460
Maar de vraag luidt als volgt.

462
00:23:39,800 --> 00:23:44,620
Als een agentic AI in de verzekeringswereld steeds meer zelfstandig beslissingen neemt.

463
00:23:45,140 --> 00:23:46,740
Wie wordt dan eigenlijk verzekerd?

464
00:23:47,170 --> 00:23:47,700
De klant?

465
00:23:48,240 --> 00:23:50,320
De AI agent die voor de klant handelt?

466
00:23:52,880 --> 00:23:54,120
Oh, dat is een grappige.

467
00:23:56,520 --> 00:23:57,520
Ja, ik denk...

468
00:23:58,400 --> 00:24:00,260
Dat is laatst ook niet lastig op de hand.

469
00:24:00,440 --> 00:24:01,740
Nou ja, en ik denk dat, weet ik veel,

470
00:24:02,600 --> 00:24:04,720
juristen zullen hier overheen gaan,

471
00:24:04,730 --> 00:24:08,880
maar dan doe ik het even vanuit mijn blik.

472
00:24:09,380 --> 00:24:10,620
Even de pragmatische blik.

473
00:24:11,840 --> 00:24:13,519
Ja, ik denk dat je als mens...

474
00:24:13,580 --> 00:24:16,340
Je sluit volgens mij als mens de overeenkomst.

475
00:24:20,460 --> 00:24:22,220
Dat zijn de twee partijen.

476
00:24:22,540 --> 00:24:25,940
Dus jij als verzekeraar en de verzekerde.

477
00:24:25,980 --> 00:24:27,680
Die sluit volgens mij de overeenkomst.

478
00:24:28,180 --> 00:24:29,860
En maakt het niet zoveel uit wat ertussen zit.

479
00:24:29,880 --> 00:24:35,580
We hebben het nu ook niet over of ik met een website de overeenkomst sluit, denk ik.

480
00:24:37,419 --> 00:24:41,500
Ik snap hem wel als het voelt als iemand die voor jou opereert.

481
00:24:41,680 --> 00:24:42,940
Maar ik denk dat het daar ook al in zit.

482
00:24:43,140 --> 00:24:44,460
Iemand die voor jou opereert.

483
00:24:44,740 --> 00:24:46,640
Je hebt iemand die eindverantwoordelijk is.

484
00:24:46,690 --> 00:24:49,460
Of die de actie of die de agent aanzet.

485
00:24:49,520 --> 00:24:51,140
En bepaalde doelen stelt.

486
00:24:51,360 --> 00:24:53,200
En ik denk dat daar goed gekeken moet worden.

487
00:24:53,320 --> 00:24:54,180
Wie stelt die doelen.

488
00:24:54,540 --> 00:24:57,020
En daar ook echt gewoon de eindverantwoordelijkheid blijft liggen.

489
00:24:57,820 --> 00:24:59,780
Ik wil niet zeggen dat omdat de agent dat doet.

490
00:25:00,220 --> 00:25:01,320
Het agent schuld is.

491
00:25:01,370 --> 00:25:03,500
Nee, er zit altijd iemand achter die verantwoordelijk is.

492
00:25:03,580 --> 00:25:06,760
Of de organisatie of de persoon die die agent aan het werk zet.

493
00:25:07,200 --> 00:25:07,480
Zeker.

494
00:25:07,490 --> 00:25:10,420
En ik neem aan dat je het ook gewoon nog steeds moet ondertekenen.

495
00:25:10,960 --> 00:25:11,580
Dat lijkt mij ook.

496
00:25:11,640 --> 00:25:11,760
Ja.

497
00:25:16,380 --> 00:25:21,480
Als agents onderling kunnen praten, is dat dan geen gevaarlijke ingang voor een hack?

498
00:25:21,880 --> 00:25:22,280
Is de vraag.

499
00:25:23,260 --> 00:25:26,100
Ja, het korte antwoord is ja, zeker.

500
00:25:26,140 --> 00:25:27,720
Maar laten we die even wat verder afkomen.

501
00:25:28,360 --> 00:25:28,460
Ja.

502
00:25:29,240 --> 00:25:36,800
Wat je in de agentic wereld veel ziet, is dat je een soort van hoofdagent hebt.

503
00:25:38,480 --> 00:25:40,520
Als ik hoofdagent zeg, dat is een soort van hoofdpiet.

504
00:25:41,760 --> 00:25:42,920
Dat is wel de periode weer.

505
00:25:44,180 --> 00:25:48,000
Dus je hebt een hoofdagent en die kan dan meerdere agents aansturen.

506
00:25:48,980 --> 00:25:50,400
Echt spreken doen ze niet met elkaar.

507
00:25:50,610 --> 00:25:52,420
Dus wat ze doen is data uitwisseling.

508
00:25:53,170 --> 00:25:55,620
En mogelijk, nou ja, spreken.

509
00:25:56,280 --> 00:25:57,880
Er kan een subdoel gegeven worden.

510
00:25:59,200 --> 00:26:03,960
Dus de hoofdagent kan een soort van hoofdplan hebben en delen van dat plan uitbesteden.

511
00:26:07,120 --> 00:26:16,420
En daar moet je dus rekening houden van wie, welke agent of sub-agent mag bij welke data, maar ook dus onder welke autorisatie mag dat.

512
00:26:16,920 --> 00:26:20,000
En als je daar fouten in maakt, ja nee zeker.

513
00:26:21,419 --> 00:26:24,100
Hier gaan daadwerkelijk problemen voorkomen.

514
00:26:24,390 --> 00:26:26,500
De eerste zijn er al geweest hoor.

515
00:26:28,719 --> 00:26:30,380
iemand toegang heeft gekregen

516
00:26:30,440 --> 00:26:31,400
tot een bepaalde agent.

517
00:26:31,720 --> 00:26:34,080
En die laat gewoon veel te veel

518
00:26:34,700 --> 00:26:36,640
data aan de buitenwereld

519
00:26:36,760 --> 00:26:37,960
zien, omdat die gewoon

520
00:26:38,440 --> 00:26:40,100
slim bevraagd is. Dus dat

521
00:26:40,900 --> 00:26:42,320
het hele vraagstuk van

522
00:26:42,780 --> 00:26:43,400
veiligheid

523
00:26:44,760 --> 00:26:45,860
wordt gewoon complexer

524
00:26:46,280 --> 00:26:48,260
als de systemen ook complexer

525
00:26:48,320 --> 00:26:50,000
worden. En in de wereld van

526
00:26:50,180 --> 00:26:51,700
agentic AI maak je

527
00:26:52,220 --> 00:26:53,440
hele complexe systemen.

528
00:26:54,640 --> 00:26:54,780
Ja.

529
00:26:55,900 --> 00:26:57,160
En daarmee wordt dus beveiliging.

530
00:26:57,600 --> 00:26:58,860
Alles wordt complexer.

531
00:26:59,720 --> 00:27:07,560
Ja, en je moet het echt al zien alsof je een medewerker of een applicatie of een systeem rechten geeft tot die data.

532
00:27:07,960 --> 00:27:09,220
En het ook zo gaan afhandelen.

533
00:27:09,270 --> 00:27:14,320
En daar dus inderdaad in je governance en beleid ook gewoon rekening mee houden en in te richten.

534
00:27:14,750 --> 00:27:15,380
Ja, zeker.

535
00:27:17,080 --> 00:27:20,000
Nou, en als we dan toch die vergelijking maken met medewerkers.

536
00:27:21,420 --> 00:27:24,920
Kijk, als jij één medewerker hebt, dan heb je één aanvalspunt.

537
00:27:25,620 --> 00:27:31,720
En als die niet thuisgeeft en alles goed beveiligd heeft, dan ben je heel snel klaar als hacker.

538
00:27:33,040 --> 00:27:38,400
Bij een grote organisatie heb je heel veel ingangen.

539
00:27:39,000 --> 00:27:43,220
En het is nou eenmaal, de ketting is zo sterk als de zwakste schakel.

540
00:27:44,130 --> 00:27:50,180
Dus als je ergens een ingang hebt, dan kan je wel makkelijker die agents foppen.

541
00:27:50,920 --> 00:27:55,220
En daarmee een grotere kans hebben dat je beveiligingslekken krijgt.

542
00:27:55,520 --> 00:28:00,920
Ja, en misschien een technische term, maar als luisteraar en je wil je even verdiepen, ga er toch eens even induiken.

543
00:28:01,200 --> 00:28:08,580
Prompt injection, dus met behulp van prompts toch data naar boven krijgen om weer bepaalde acties voor elkaar te krijgen bij agent.

544
00:28:08,760 --> 00:28:13,020
We hadden een tijdje terug een hele mooie kennissessie bij Info Support hierover.

545
00:28:13,600 --> 00:28:18,660
Die had ook de algemene voorwaarden online staan voor het annuleren van een auto die je ging huren.

546
00:28:19,220 --> 00:28:20,720
en door eigenlijk slim prompt injection

547
00:28:21,080 --> 00:28:22,440
toe te passen, had de AI

548
00:28:23,960 --> 00:28:24,600
agent toch

549
00:28:25,440 --> 00:28:27,080
gezegd van nou, je mag inderdaad toch annuleren.

550
00:28:27,580 --> 00:28:28,500
Voldeed niet aan de voorwaarden.

551
00:28:28,880 --> 00:28:30,620
Oh, en de volgende keer heb je ook nog 50% korting.

552
00:28:30,700 --> 00:28:32,220
Bij de volgende keer heb je dat. Oh ja, kijk.

553
00:28:34,060 --> 00:28:34,900
En is dat dan

554
00:28:35,020 --> 00:28:37,040
legal binding? Nou, daar mogen de juristen

555
00:28:37,200 --> 00:28:38,820
dan mee aan de slag, maar ik denk dat je daar als

556
00:28:38,980 --> 00:28:40,800
organisatie rekening moet houden dat dat

557
00:28:40,940 --> 00:28:43,020
soort zaken kunnen gebeuren. Dus hoeveel autonomie?

558
00:28:43,120 --> 00:28:44,880
Komen we terug op autonomie en transparantie?

559
00:28:45,480 --> 00:28:46,680
Hoeveel autonomie krijgt het?

560
00:28:46,940 --> 00:28:48,560
En wat mag het systeem wel?

561
00:28:48,800 --> 00:28:49,860
en wat mag het systeem niet?

562
00:28:50,240 --> 00:28:50,460
Precies.

563
00:28:52,320 --> 00:28:53,440
Ook een hele mooie vraag.

564
00:28:53,770 --> 00:28:57,120
Als jullie een AI agent één menselijke eigenschap kon meegeven,

565
00:28:57,620 --> 00:28:59,160
welke zou dat zijn en waarom?

566
00:28:59,920 --> 00:29:00,340
Ja, niet.

567
00:29:01,840 --> 00:29:03,420
Mag ik hem zo ook beantwoorden?

568
00:29:03,980 --> 00:29:04,360
Jazeker.

569
00:29:05,960 --> 00:29:06,720
Nee, ja.

570
00:29:08,520 --> 00:29:12,420
Ik heb echt, zelf heb ik echt moeite met dat vermenselijke van AI agents.

571
00:29:12,640 --> 00:29:14,540
We kunnen er echt fantastische dingen mee doen.

572
00:29:16,740 --> 00:29:21,060
Maar uiteindelijk is het technologie.

573
00:29:23,639 --> 00:29:26,660
Dus menselijke eigenschappen, nee.

574
00:29:28,340 --> 00:29:33,460
Ik denk dat we namelijk juist heel goed moeten kijken van waar is de technologie heel goed in?

575
00:29:34,080 --> 00:29:35,520
En waar is de mens heel goed in?

576
00:29:36,060 --> 00:29:41,380
En waar ik dan in geloof, is als je dan die samenwerking krijgt, dat dat een versterkend effect is.

577
00:29:41,600 --> 00:29:43,540
Dat we dan op zoek zijn naar 1 plus 1 is 3.

578
00:29:45,940 --> 00:29:51,740
Ik denk dat we er niet naartoe moeten dat wij als mensen technologisch gaan handelen.

579
00:29:53,080 --> 00:29:58,000
En daarom dus ook niet dat de technologie menselijke karaktertrekken zou moeten krijgen.

580
00:29:59,600 --> 00:30:03,220
Dus ik hoop dat die werelden echt wel gescheiden blijven.

581
00:30:04,100 --> 00:30:04,820
Maar ik ben er bang voor.

582
00:30:05,380 --> 00:30:06,080
Ik ben er ook bang voor.

583
00:30:06,820 --> 00:30:09,140
Ik ben wel voor een klein beetje vermenselijking.

584
00:30:09,440 --> 00:30:12,120
Maar dat is vanuit de menselijke kant om ermee samen te gaan werken.

585
00:30:12,420 --> 00:30:17,080
Ik werk liever met een stukje technologie die voor mij menselijk overkomt.

586
00:30:17,300 --> 00:30:19,280
Dan dat ik me zou moeten aanpassen de technologie.

587
00:30:19,330 --> 00:30:20,660
Maar eigenlijk zeggen we daar een beetje hetzelfde.

588
00:30:21,080 --> 00:30:22,000
Maar net een andere verwoording.

589
00:30:22,110 --> 00:30:27,280
En ik denk dat daar juist de persoonlijke kenmerken en eigenschappen van hoe wij acteren.

590
00:30:27,500 --> 00:30:29,800
Nodig zijn om mee te nemen in die agents.

591
00:30:30,100 --> 00:30:30,180
Ja.

592
00:30:30,960 --> 00:30:35,200
En het is al vaak lastig genoeg om met mensen te communiceren.

593
00:30:35,430 --> 00:30:36,360
Met allerlei...

594
00:30:36,620 --> 00:30:37,720
Ach, toen is technologie ook wel lekker.

595
00:30:39,340 --> 00:30:40,060
Verborgen agenda's.

596
00:30:41,280 --> 00:30:41,640
Miscommunicatie.

597
00:30:41,860 --> 00:30:44,160
weet ik het allemaal wat je je voor

598
00:30:44,160 --> 00:30:45,340
kunt stellen. Inderdaad.

599
00:30:47,420 --> 00:30:47,880
Een agent

600
00:30:48,480 --> 00:30:50,140
mag net zoveel fouten maken als

601
00:30:50,150 --> 00:30:52,140
een medewerker. Ja, dat was

602
00:30:52,220 --> 00:30:53,800
een stelling die wij, die hadden wij zelf

603
00:30:54,140 --> 00:30:55,240
bedacht, namelijk in de

604
00:30:56,080 --> 00:30:57,660
webinar. Dus

605
00:30:58,640 --> 00:30:59,820
verbaasd me dat hij als vraag de

606
00:30:59,960 --> 00:31:01,420
tussent, maar dat is wel heel erg leuk.

607
00:31:01,900 --> 00:31:03,660
Deze vraag ik vaker, ook

608
00:31:03,780 --> 00:31:05,160
waar ik spreek en zo.

609
00:31:08,020 --> 00:31:09,340
Want dat is natuurlijk wel,

610
00:31:09,610 --> 00:31:11,000
ja, dat is een grappige afweging.

611
00:31:13,419 --> 00:31:18,240
Als we AI agents inzetten, moeten we ervan uitgaan dat die ook fouten maakt.

612
00:31:18,340 --> 00:31:25,380
Het is inherent aan de technologie, omdat er een mate van willekeur in zit, gaan er dingen mis.

613
00:31:25,500 --> 00:31:36,400
Dus als jij op zoek bent naar een bepaalde workflow of afhandeling die altijd dezelfde regels volgt.

614
00:31:36,400 --> 00:31:37,980
En altijd dezelfde uitkomsten heeft.

615
00:31:38,220 --> 00:31:41,620
En altijd als ik hetzelfde instop, hetzelfde eruit krijg.

616
00:31:41,860 --> 00:31:44,220
Als dat nodig is, moet je geen AI agents inzetten.

617
00:31:46,820 --> 00:31:48,540
Dus agents maken fouten.

618
00:31:48,540 --> 00:31:52,460
Dus ik vind dat je na moet denken over hoeveel fouten mogen ze dan maken.

619
00:31:53,120 --> 00:31:54,520
En welke fouten mogen ze maken.

620
00:31:55,160 --> 00:31:58,960
Want hoe slim soms de technologie ook lijkt.

621
00:31:59,540 --> 00:32:03,920
Gaat het vaak juist op wat wij als mens hele simpele dingen vinden.

622
00:32:04,520 --> 00:32:05,840
Kan de AI fout op gaan.

623
00:32:06,600 --> 00:32:11,240
waar wij als mens op hele complexe dingen mis kunnen gaan,

624
00:32:11,630 --> 00:32:13,980
dan kan dan die AI agent weer heel goed.

625
00:32:14,080 --> 00:32:15,440
Kan die technologie weer heel goed.

626
00:32:15,980 --> 00:32:20,680
Dus je moet hier heel goed nadenken over, mag er iets fout gaan?

627
00:32:21,300 --> 00:32:22,620
En waar mag het dan fout gaan?

628
00:32:23,500 --> 00:32:27,820
En welke maatregelen hebben we dan als een agent een fout maakt?

629
00:32:28,060 --> 00:32:30,780
Kan ik in een soort van hoger beroep?

630
00:32:32,740 --> 00:32:34,480
Maar zijn er escalatiepaden?

631
00:32:34,840 --> 00:32:37,440
Als een AI agent fouten heeft gemaakt.

632
00:32:38,060 --> 00:32:40,720
Waar kan ik dan bijvoorbeeld als consument terecht.

633
00:32:41,540 --> 00:32:43,760
Om het te hebben over die fouten van die AI agent.

634
00:32:44,260 --> 00:32:45,840
Dus dat betekent dat je ook monitoring.

635
00:32:46,440 --> 00:32:47,520
Transparantie ingebouwd moet hebben.

636
00:32:47,660 --> 00:32:49,240
En als een organisatie als je een agent hebt.

637
00:32:49,340 --> 00:32:50,780
Dat je daar dus ook rekening mee moet houden.

638
00:32:50,920 --> 00:32:52,220
Dat je daar iets voor inricht.
```

639
00:32:52,880 --> 00:32:54,060
Dat je die monitoring hebt.

640
00:32:54,250 --> 00:32:56,180
Maar er zou ook een bewijslast weer hebben.

641
00:32:56,300 --> 00:32:57,720
Waarom is het fout gegaan?

642
00:32:57,880 --> 00:32:58,380
Hoe komt dat?

643
00:32:58,540 --> 00:32:59,480
En daarop weer kunnen groeien.

644
00:33:00,400 --> 00:33:02,520
Hoe bouw je monitoring in dat soort systemen in?

645
00:33:03,040 --> 00:33:04,000
Dat lijkt me nogal complex.

646
00:33:06,440 --> 00:33:07,700
je kan het zo complex maken

647
00:33:07,730 --> 00:33:09,480
als dat je zelf wil, maar het begint natuurlijk met

648
00:33:09,660 --> 00:33:11,300
bij de agent dat je vastlegt

649
00:33:12,700 --> 00:33:13,700
wat de input

650
00:33:13,790 --> 00:33:15,300
is geweest, wat de output is geweest

651
00:33:15,480 --> 00:33:17,400
en ik vertelde al

652
00:33:17,520 --> 00:33:19,460
de agent kan ook tools

653
00:33:19,720 --> 00:33:21,720
aanroepen, met data die hij geeft

654
00:33:21,780 --> 00:33:22,700
dus die kan je allemaal vastleggen

655
00:33:22,760 --> 00:33:24,900
en daar zijn gelukkig ook standaarden voor

656
00:33:25,170 --> 00:33:27,140
dus je hebt met een heel moeilijk woord

657
00:33:28,700 --> 00:33:29,420
observability standaarden

658
00:33:30,520 --> 00:33:31,300
dat als je daarop

659
00:33:31,400 --> 00:33:33,319
aansluit, kun je eigenlijk zo'n beetje alles

660
00:33:33,340 --> 00:33:34,760
meten wat

661
00:33:35,660 --> 00:33:36,500
zo'n agent doet.

662
00:33:37,260 --> 00:33:38,440
Daar begint het mee.

663
00:33:39,300 --> 00:33:41,280
En dan kan je dus ook, stel je hebt allerlei

664
00:33:42,480 --> 00:33:42,940
test sets,

665
00:33:43,320 --> 00:33:45,240
waarvan je zegt, als ik dit geef

666
00:33:45,340 --> 00:33:47,200
aan de agent, dan verwacht ik

667
00:33:47,350 --> 00:33:49,380
eigenlijk ook dat hij het volgende uitvoert.

668
00:33:50,680 --> 00:33:51,200
Die kan je

669
00:33:51,210 --> 00:33:53,160
gewoon regelmatig draaien. Dan kijken van

670
00:33:53,560 --> 00:33:55,180
doet mijn agent nog steeds

671
00:33:55,430 --> 00:33:56,720
wat ik eigenlijk verwacht dat hij doet.

672
00:33:57,780 --> 00:33:59,320
Dus je krijgt er gewoon een percentage

673
00:33:59,900 --> 00:34:00,759
uit van

674
00:34:02,980 --> 00:34:05,780
zoveel heeft hij goed afgehandeld, zoveel heeft hij niet goed afgehandeld.

675
00:34:06,220 --> 00:34:08,960
Maar dat betekent wel dat je dit soort data moet verzamelen, vast moet leggen.

676
00:34:09,899 --> 00:34:12,480
Het is net een automatiseringsproject.

677
00:34:12,820 --> 00:34:13,780
Toch gewoon wat bekijken.

678
00:34:13,960 --> 00:34:14,220
Ja toch?

679
00:34:15,540 --> 00:34:18,919
Dus er zijn allerlei standaardmetrieken ook wel

680
00:34:19,540 --> 00:34:22,659
om ernaar te kijken van hoe goed doet je agent het ook.

681
00:34:23,139 --> 00:34:24,820
Ja, en we hebben het in de podcast wel vaak gehad.

682
00:34:24,820 --> 00:34:27,320
Je hebt ook het bijkomend voordeel als je dit soort tests goed inricht.

683
00:34:27,379 --> 00:34:29,100
Dat is als er weer een nieuw model uitkomt.

684
00:34:29,379 --> 00:34:32,820
Wat iedere zoveel week, iedere zoveel dagen, iedere zoveel maanden wel gebeurt.

685
00:34:33,340 --> 00:34:35,200
Dat je ook dat soort zaken kan afvangen.

686
00:34:35,340 --> 00:34:37,540
Doet het nieuwe model het net zo goed als het oude.

687
00:34:37,679 --> 00:34:38,440
En hou daar rekening mee.

688
00:34:39,360 --> 00:34:42,340
Want het hart van een AI agent is het taalmodel.

689
00:34:43,639 --> 00:34:45,540
Nee, dat is een hele goede die je aangeeft.

690
00:34:45,879 --> 00:34:47,139
En dat wordt heel vaak vergeten.

691
00:34:48,800 --> 00:34:51,520
We zijn nu van chat-GPT 4 naar 5 gegaan.

692
00:34:51,899 --> 00:34:53,540
Ja, 5 doet iets heel anders dan 4.

693
00:34:54,100 --> 00:34:56,159
En dat hoeft niet per se beter te zijn.

694
00:34:56,360 --> 00:34:57,360
Maar het is anders.

695
00:34:57,540 --> 00:35:05,100
En het feit dat het anders is, betekent dus ook dat de agent die gebaseerd is op dat taalmodel, ook anders reageert.

696
00:35:06,100 --> 00:35:07,040
Ik denk dat het heel belangrijk is.

697
00:35:07,360 --> 00:35:12,000
De luisteraars die snel omgeswitcht zijn, gaan nog even kijken of alles nog hetzelfde werkt.

698
00:35:14,460 --> 00:35:16,120
Volgens mij heb je een mooi positief verhaal gehouden.

699
00:35:16,140 --> 00:35:19,780
Want ze staan positief in het gebruik en toepasbaarheid van AI.

700
00:35:19,840 --> 00:35:22,220
Een AI agent wordt hier teruggeven als aanloop voor de vraag.

701
00:35:22,900 --> 00:35:24,480
Maar ze worstelen wel met nog de volgende vraag.

702
00:35:25,060 --> 00:35:31,320
Hoe zorgen we ervoor dat een AI-agent voldoet aan de AVG en de andere relevante wet- en regelgeving?

703
00:35:31,440 --> 00:35:33,840
Ja, dat doe je zelf.

704
00:35:33,840 --> 00:35:43,740
Maar dit zijn wel, zeker als je het inkoopt, er zijn natuurlijk allerlei manieren hoe je aan slimme technologie komt.

705
00:35:43,740 --> 00:35:44,840
Laten we eens beginnen met de inkoop.

706
00:35:44,840 --> 00:35:50,560
Zijn dit echt de vragen die je moet stellen?

707
00:35:50,560 --> 00:35:52,400
En laat je daar niet met een kluitje in het riet sturen.

708
00:35:54,520 --> 00:36:07,780
En als je het zelf maakt, en dat kan zijn dat je begint met een co-pilot studio of mensen beginnen met N1N, een manier om agents in elkaar te klikken.

709
00:36:08,620 --> 00:36:14,720
Ook daar, dan ben je zelf verantwoordelijk of je aan deze wetgeving voldoet.

710
00:36:15,440 --> 00:36:20,700
Als je een bedrijf inhuurt om voor jou op maatwerk iets te maken.

711
00:36:21,660 --> 00:36:25,240
Verplicht dan dat je dit, wat we dan noemen by design doen.

712
00:36:25,380 --> 00:36:28,920
Dus dat je vanaf het allereerste moment dat je begint.

713
00:36:29,940 --> 00:36:32,400
Kijkt ten opzichte van de wetgeving.

714
00:36:33,220 --> 00:36:35,280
Maar ook je interne compliance.

715
00:36:36,580 --> 00:36:40,300
Maar wat mij betreft ook de ethische waardes die je als bedrijf hebt.

716
00:36:40,300 --> 00:36:43,580
Dat je zegt vanaf dag 1 sluit je daarop aan.

717
00:36:44,340 --> 00:36:51,880
En jij als opdrachtgever bevraagt constant degene waarbij je het hebt ingekocht of die het voor jou maakt.

718
00:36:52,600 --> 00:37:02,240
En aan de andere kant vind ik dat degene die het maakt jou ook constant over informeert dat je op deze vlakken gewoon goed zit.

719
00:37:03,360 --> 00:37:05,700
Dus dat betekent gewoon hard werken, mouwen opstropen.

720
00:37:05,970 --> 00:37:07,160
Ja, zeker.

721
00:37:07,160 --> 00:37:07,900
Dat je dit goed implementeert.

722
00:37:08,440 --> 00:37:18,840
En wat ik zeg, als je het inkoopt, zorg dat je terms and conditions, de voorwaarden, algemene voorwaarden, privacy statements, policies, allemaal doorleest.

723
00:37:19,480 --> 00:37:23,320
Of dat je het laat doorlezen, in ieder geval door iemand die er verstand van heeft.

724
00:37:24,440 --> 00:37:25,480
Dat is echt superbelangrijk.

725
00:37:25,690 --> 00:37:30,120
Ja, dat is er niet zo zijn inderdaad. Ik heb het ingekocht, dus daar ben ik klaar.

726
00:37:30,150 --> 00:37:31,660
Dat is dus zeker niet het geval.

727
00:37:31,810 --> 00:37:31,900
Nee.

728
00:37:34,240 --> 00:37:38,660
Stel, de hele sector van verzekeringen waar je gesproken hebt is helemaal over.

729
00:37:39,150 --> 00:37:40,660
Ze zetten AI optimaal in.

730
00:37:41,940 --> 00:37:45,380
Op welke punten kun je dan nog onderscheiden als individuele verzekeraar?

731
00:37:45,680 --> 00:37:49,660
Lijkt de verzekeraars dan niet allemaal op elkaar door de inzet van AI?

732
00:37:50,940 --> 00:37:52,140
Mooi, goede vraag.

733
00:37:54,940 --> 00:38:01,419
Ik denk dat je uiteindelijk altijd verschil maakt in de benadering van hoe je je organisatie inricht,

734
00:38:02,060 --> 00:38:03,740
wat je wil, wat je doelstellingen zijn.

735
00:38:04,240 --> 00:38:09,120
En je zou kunnen zeggen dat ook iedere zorgverzekeraar hetzelfde zou kunnen zijn.

736
00:38:09,520 --> 00:38:14,040
Omdat er natuurlijk heel veel vastgelegd is wat bijvoorbeeld in de basiszorg zit.

737
00:38:15,540 --> 00:38:18,540
Maar uiteindelijk heb je zelf denk ik verschillende waardes.

738
00:38:19,040 --> 00:38:21,400
Maar heb je ook misschien verschillende verdienmodellen.

739
00:38:22,000 --> 00:38:27,160
Waar de één misschien zegt van ja maar ik ga volledig inzetten op de technologie.

740
00:38:27,300 --> 00:38:29,340
En ik word een volledig technologisch bedrijf.

741
00:38:30,660 --> 00:38:33,140
Waarbij er zo min mogelijk medewerkers zijn.

742
00:38:34,100 --> 00:38:35,700
is denk ik een hele andere insteek

743
00:38:35,710 --> 00:38:37,940
dan dat je zegt, ja maar ik wil een verzekeraar zijn

744
00:38:38,540 --> 00:38:39,960
die zo maximaal mogelijk

745
00:38:40,220 --> 00:38:41,620
mijn verzekerde ondersteunt

746
00:38:41,700 --> 00:38:43,560
die je altijd kan bellen en een persoon

747
00:38:43,590 --> 00:38:45,360
aan de lijn kan krijgen wat ook nog een optie

748
00:38:45,620 --> 00:38:46,160
ja bijvoorbeeld

749
00:38:47,580 --> 00:38:49,320
ik denk dat de technologie

750
00:38:49,880 --> 00:38:50,980
helemaal daar geen

751
00:38:52,220 --> 00:38:52,660
ja

752
00:38:53,560 --> 00:38:56,020
die trekt dat speelveld helemaal niet gelijk

753
00:38:56,540 --> 00:38:58,020
ik denk dat het juist de mogelijkheid

754
00:38:58,140 --> 00:38:59,780
is om je te onderscheiden

755
00:39:00,280 --> 00:39:01,340
en dat je dan kiest

756
00:39:01,690 --> 00:39:03,200
hoe je technologie inzet

757
00:39:03,400 --> 00:39:06,040
om dat onderscheidend vermogen juist uit te vergroten.

758
00:39:06,720 --> 00:39:09,320
Dus ik zou degene die de vraag heeft gesteld,

759
00:39:09,640 --> 00:39:11,240
vooral na laten denken over van,

760
00:39:11,740 --> 00:39:13,620
wat is dan dat onderscheidend vermogen?

761
00:39:14,320 --> 00:39:17,000
En hoe kan ik dat zo goed mogelijk ondersteunen?

762
00:39:17,020 --> 00:39:18,760
En of dat met AI is, ja of nee,

763
00:39:19,320 --> 00:39:20,500
dat maakt eigenlijk niet zoveel uit.

764
00:39:21,780 --> 00:39:22,900
Helder antwoord inderdaad.

765
00:39:23,020 --> 00:39:25,360
Het maakt juist mogelijk om je persoonlijke touch

766
00:39:25,480 --> 00:39:26,600
misschien juist meer te gaan geven,

767
00:39:26,700 --> 00:39:28,400
omdat de technologie het ondersteunt als je dat wil.

768
00:39:28,580 --> 00:39:28,700
Ja.

769
00:39:31,100 --> 00:39:33,040
Blijkbaar heb je een onderwerp in je sessie,

770
00:39:33,100 --> 00:39:35,000
niet behandeld, die wel gewenst was.

771
00:39:35,140 --> 00:39:35,560
Oh jeetje.

772
00:39:37,140 --> 00:39:38,900
Ik mis de belangrijkheid van de juiste

773
00:39:39,120 --> 00:39:39,960
prompt voor het succes.

774
00:39:41,280 --> 00:39:41,880
Oh, wat is

775
00:39:42,810 --> 00:39:43,340
de juiste prompt?

776
00:39:43,340 --> 00:39:44,440
De juiste prompt voor het succes.

777
00:39:45,640 --> 00:39:47,860
Ja, er is natuurlijk heel veel te doen om

778
00:39:48,210 --> 00:39:50,100
van wat zijn nou goede prompts.

779
00:39:50,970 --> 00:39:51,980
En ik zou haast zeggen van

780
00:39:53,300 --> 00:39:54,400
luister even de

781
00:39:54,520 --> 00:39:56,220
aflevering terug over context

782
00:39:56,480 --> 00:39:56,800
engineering.

783
00:39:58,560 --> 00:40:00,100
Want uiteindelijk context is namelijk veel

784
00:40:00,260 --> 00:40:01,060
belangrijker dan je prompt.

785
00:40:02,720 --> 00:40:04,240
Ik weet wel waar dit vandaan komt.

786
00:40:06,360 --> 00:40:09,260
Toen Chagipity net uitkwam in november 2022.

787
00:40:10,440 --> 00:40:14,280
Was het heel belangrijk, zeker voor die generatie aan taalmodellen.

788
00:40:14,660 --> 00:40:16,780
Om een hele goede prompt neer te zetten.

789
00:40:17,300 --> 00:40:20,800
En daar deed je eigenlijk al een beetje context engineering.

790
00:40:20,960 --> 00:40:22,260
Dus dan gaf je bijvoorbeeld een rol op.

791
00:40:22,760 --> 00:40:26,080
Waarin je het taalmodel in een bepaalde hoek ging drukken.

792
00:40:26,900 --> 00:40:28,820
En had je allerlei prompts frameworks.

793
00:40:29,160 --> 00:40:30,940
Je moet het doel opgeven.

794
00:40:32,120 --> 00:40:35,340
Er waren allerlei manieren om een hele goede prompt te maken.

795
00:40:35,860 --> 00:40:41,840
De taalmodellen zijn nu zo ver dat de prompt iets minder belangrijk wordt.

796
00:40:43,640 --> 00:40:47,760
De meeste van dit soort leveranciers hebben op de achtergrond zelfs...

797
00:40:47,760 --> 00:40:51,760
dat ze jouw prompt eigenlijk net iets al aan het verbeteren zijn.

798
00:40:52,140 --> 00:40:52,900
Zonder dat je dat ziet.

799
00:40:54,240 --> 00:40:56,420
Zodat de taalmodel je beter begrijpt.

800
00:40:57,180 --> 00:41:02,900
Maar wat belangrijker wordt, is omdat ze steeds meer data kunnen verwerken in één keer,

801
00:41:03,080 --> 00:41:06,940
is dat de context die je meegeeft, en daar kunnen bestanden zijn,

802
00:41:08,300 --> 00:41:10,960
wij geven heel vaak transcriptie mee van de podcast.

803
00:41:11,760 --> 00:41:16,260
Dus wat je meegeeft aan data, aan waar de taalmodel allemaal mee kan werken,

804
00:41:16,320 --> 00:41:19,100
is vaak belangrijker dan de prompt zelf.

805
00:41:19,130 --> 00:41:25,000
Wat ik zelf merk, is dat ik eigenlijk steeds meer vragen informeler stel.

806
00:41:27,400 --> 00:41:28,840
net zo goed als dat wij zouden praten

807
00:41:29,020 --> 00:41:31,380
dan in dat hele gestructureerde

808
00:41:32,160 --> 00:41:32,560
behalve

809
00:41:33,500 --> 00:41:34,720
als ik prompt

810
00:41:35,400 --> 00:41:36,540
automatiseer. Dus als we een

811
00:41:37,340 --> 00:41:39,160
proces hebben wat geautomatiseerd

812
00:41:39,320 --> 00:41:40,980
is, dan is het belangrijk

813
00:41:41,280 --> 00:41:42,460
dat ik nadenk over

814
00:41:42,800 --> 00:41:45,060
wat is de structuur die eruit komt, wat is de taal

815
00:41:45,060 --> 00:41:47,120
die eruit komt, in welke vorm

816
00:41:47,240 --> 00:41:48,700
wat moet er minimaal in zitten

817
00:41:49,560 --> 00:41:51,420
dus als je het wil automatiseren

818
00:41:51,960 --> 00:41:52,980
dan zit je nog in

819
00:41:53,400 --> 00:41:55,000
dat je heel goed na moet denken

820
00:41:55,020 --> 00:42:00,540
over als ik daar steeds verschillende data aan meegeef,

821
00:42:02,080 --> 00:42:04,100
doet die prompt dan nog steeds hetzelfde.

822
00:42:04,720 --> 00:42:06,900
En dat is vaak iteratief.

823
00:42:07,040 --> 00:42:11,020
Dus dat je herhalend kijkt van als ik dit nou doe, komt het eruit?

824
00:42:11,340 --> 00:42:13,080
Nee, wat moet ik dan verbeteren?

825
00:42:13,420 --> 00:42:15,680
Je kan vaak nu ook aan het taalmodel zeggen van

826
00:42:15,820 --> 00:42:20,720
ik heb deze data, deze prompt, maar ik verwachtte dit als uitkomst,

827
00:42:20,720 --> 00:42:24,260
maar ik heb dit gekregen, dat hij je zelfs kan helpen bij de prompt verbeteren.

828
00:42:26,440 --> 00:42:28,180
dus de relevantie

829
00:42:28,190 --> 00:42:29,720
van een super super goede

830
00:42:30,120 --> 00:42:31,840
prompt als je

831
00:42:31,870 --> 00:42:33,000
het zelf gebruikt

832
00:42:33,800 --> 00:42:35,080
is echt een heel stuk lager

833
00:42:35,860 --> 00:42:37,360
als je wat ik net zegt

834
00:42:38,240 --> 00:42:39,660
geautomatiseerd wordt het echt wel

835
00:42:40,040 --> 00:42:41,200
belangrijker dat je het strakker doet

836
00:42:41,310 --> 00:42:43,640
maar vooral komen we weer op de monitoring uit

837
00:42:44,000 --> 00:42:44,920
dat je dat monitort

838
00:42:44,950 --> 00:42:47,660
dat je kijkt van blijft die bij allerlei verschillende

839
00:42:47,860 --> 00:42:48,060
data

840
00:42:49,620 --> 00:42:50,340
goed doen

841
00:42:51,160 --> 00:42:52,880
het is een onderdeel van een keten

842
00:42:53,040 --> 00:42:54,960
die weer geautomatiseerd verder gaat.

843
00:42:55,360 --> 00:42:59,560
Dus daar wil je gewoon structuur en kwaliteit en consistentie eigenlijk hebben.

844
00:42:59,560 --> 00:43:02,940
En wat dan een goede prompt is, dat hangt dus van je context af.

845
00:43:03,820 --> 00:43:06,360
En wat ik zeg, gebruik dat echt.

846
00:43:06,600 --> 00:43:11,740
Dus je zegt van, ik heb deze data, dit komt er nu uit, ik had dit verwacht.

847
00:43:12,300 --> 00:43:16,980
Vraag gewoon het taalmodel, en ook precies het taalmodel dat je gebruikt trouwens,

848
00:43:18,740 --> 00:43:21,020
dat je die prompt laat verbeteren.

849
00:43:21,120 --> 00:43:23,420
Dus dan kan je AI inzetten om je daarin te helpen.

850
00:43:23,570 --> 00:43:24,080
Ja, zeker.

851
00:43:24,510 --> 00:43:28,620
En mijn persoonlijke ervaring met GIP T5 is inderdaad dat hij daar best wel goed in is.

852
00:43:28,620 --> 00:43:34,200
Dat die steeds kortere prompts, nog steeds zodra die in die context zit waar je hem wil hebben.

853
00:43:34,540 --> 00:43:35,980
En dat is wel echt even de eerste stap.

854
00:43:36,620 --> 00:43:37,360
Kan je vrij kort.

855
00:43:37,510 --> 00:43:38,740
Ik had zelfs met drie woorden.

856
00:43:39,400 --> 00:43:40,400
Nu deze service.

857
00:43:41,300 --> 00:43:42,980
De rest was eigenlijk, dat was mijn prompt.

858
00:43:43,320 --> 00:43:45,980
Maar omdat hij de context had, kon hij daar inderdaad zo verder.

859
00:43:46,190 --> 00:43:48,960
Om daar ook zaken voor uit te werken en uitschrijven.

860
00:43:49,400 --> 00:43:53,400
Ja, maar luister ook even de aflevering van de context-engineering, zou ik zeggen.

861
00:43:53,940 --> 00:43:54,260
Zeker.

862
00:43:56,380 --> 00:43:57,880
We zijn alweer bijna door de vragen heen.

863
00:43:58,520 --> 00:44:02,580
Dus ik wil eigenlijk gaan naar de afsluitende vraag van deze aflevering.

864
00:44:03,260 --> 00:44:04,420
En die luidt als volgt.

865
00:44:05,160 --> 00:44:08,240
AI-agents zijn er om ons te ondersteunen.

866
00:44:09,380 --> 00:44:14,500
Hoe kunnen wij AI-agent het best ondersteunen om er samen het maximale uit te halen?

867
00:44:15,100 --> 00:44:16,240
Zo, dat is een mooie vraag, ja.

868
00:44:19,960 --> 00:44:21,420
Ja, om daar een kort antwoord op te geven

869
00:44:21,580 --> 00:44:22,860
valt nog niet mee

870
00:44:25,100 --> 00:44:26,320
Dat begint bij

871
00:44:27,680 --> 00:44:29,100
dat je een agent

872
00:44:29,230 --> 00:44:30,580
in ieder geval afbakent

873
00:44:31,140 --> 00:44:33,080
Dat het niet

874
00:44:33,190 --> 00:44:34,960
een te ruime taak wordt

875
00:44:35,220 --> 00:44:36,640
die een agent moet gaan uitvoeren

876
00:44:37,180 --> 00:44:39,240
Dus om een agent goed te laten werken

877
00:44:39,340 --> 00:44:41,180
heeft hij een hele specifieke taak

878
00:44:41,720 --> 00:44:43,300
En wat ik bijvoorbeeld wel een hele mooie vind

879
00:44:43,460 --> 00:44:45,660
is wat wat vaker nu terugkomt

880
00:44:45,800 --> 00:44:48,460
Stel je moet aan compliance voldoen.

881
00:44:48,880 --> 00:44:49,500
Dat je ook zegt.

882
00:44:49,680 --> 00:44:51,160
We maken een agent.

883
00:44:51,420 --> 00:44:53,160
Die helemaal gespecialiseerd is.

884
00:44:53,260 --> 00:44:55,540
Om een compliance check uit te voeren.

885
00:44:57,260 --> 00:44:59,140
Maar die kan geen rapporten schrijven.

886
00:44:59,240 --> 00:44:59,980
Die kan niks anders.

887
00:45:00,080 --> 00:45:01,060
Die kan alleen maar.

888
00:45:02,080 --> 00:45:03,180
Die compliance checken.

889
00:45:03,600 --> 00:45:04,740
En zo kan je.

890
00:45:05,320 --> 00:45:07,260
Als je die agents klein maakt.

891
00:45:08,560 --> 00:45:09,380
Dan kunnen ze ook.

892
00:45:10,120 --> 00:45:11,600
Makkelijker met elkaar samenwerken.

893
00:45:11,680 --> 00:45:13,220
En maak je het de agent.

894
00:45:13,720 --> 00:45:15,660
Makkelijker om ons te ondersteunen.

895
00:45:16,160 --> 00:45:17,560
Want dan wordt het dus ook minder ambigu.

896
00:45:18,740 --> 00:45:19,760
Wat er gedaan moet worden.

897
00:45:20,360 --> 00:45:21,000
Dus als jij.

898
00:45:22,060 --> 00:45:23,360
Hele brede taken hebt.

899
00:45:23,560 --> 00:45:23,760
En op.

900
00:45:25,040 --> 00:45:26,400
We hebben net over die prompts gehad.

901
00:45:26,520 --> 00:45:28,700
Toch een doel krijgt.

902
00:45:28,760 --> 00:45:30,760
Wat misschien toch redelijk vaag is.

903
00:45:31,240 --> 00:45:33,600
Dan moet die uiteindelijk uitgesplitst worden.

904
00:45:34,020 --> 00:45:35,040
In allerlei taakjes.

905
00:45:35,820 --> 00:45:37,140
En hoe duidelijker het is.

906
00:45:37,900 --> 00:45:38,600
Welke agent.

907
00:45:38,860 --> 00:45:40,000
Welke taak uitvoert.

908
00:45:40,440 --> 00:45:41,500
Daarmee ondersteun je.

909
00:45:42,700 --> 00:45:43,480
De AI agents.

910
00:45:44,240 --> 00:45:46,020
helder. Dus je maakt het makkelijker

911
00:45:46,340 --> 00:45:47,800
om voor de agent, omdat

912
00:45:47,820 --> 00:45:49,860
hij een specifieke taak heeft, je maakt het voor de

913
00:45:49,940 --> 00:45:51,920
mens makkelijker om met de agent samen

914
00:45:51,960 --> 00:45:54,100
te werken. En het bijkomende

915
00:45:54,220 --> 00:45:55,800
voordeel is, je hebt een afgekaderd stuk

916
00:45:55,840 --> 00:45:58,000
waar je security en transparantie kan inbouwen

917
00:45:58,100 --> 00:45:59,540
en je monitoring op kan zetten.

918
00:46:00,000 --> 00:46:01,820
Zodat als er één agent niet

919
00:46:01,900 --> 00:46:04,140
lekker loopt, dat je die kan corrigeren

920
00:46:04,360 --> 00:46:05,800
en kan uitbreiden. Precies.

921
00:46:05,860 --> 00:46:07,920
En het ontwikkelen van de agent wordt ook eenvoudiger.

922
00:46:08,260 --> 00:46:09,940
Want je hebt met minder dingen rekening

923
00:46:10,020 --> 00:46:10,900
te houden. Dus

924
00:46:11,720 --> 00:46:13,420
het opknippen in stukjes,

925
00:46:13,540 --> 00:46:15,200
is gewoon makkelijk. Als je een

926
00:46:16,040 --> 00:46:17,480
gerecht moet maken en iemand die zegt

927
00:46:17,510 --> 00:46:18,620
gewoon zo out of the blue van

928
00:46:19,260 --> 00:46:21,800
hier, weet je, maak een bruidstaart

929
00:46:22,420 --> 00:46:22,780
Niels.

930
00:46:24,420 --> 00:46:25,580
Ja, dan is het toch ook wel handig

931
00:46:25,720 --> 00:46:27,420
dat je een heel stappenplan hebt, dat je

932
00:46:27,520 --> 00:46:29,280
eigenlijk in kleine stukjes op kan knippen.

933
00:46:30,400 --> 00:46:31,620
Ik mis al requirements hoor.

934
00:46:32,180 --> 00:46:33,440
Ja. Kan ook gewoon appeltaart worden.

935
00:46:34,740 --> 00:46:35,420
Dat. Nee, maar

936
00:46:35,580 --> 00:46:37,440
daar moet je helderheid in creëren inderdaad.

937
00:46:37,680 --> 00:46:39,200
En die kaders. Helder.

938
00:46:40,240 --> 00:46:41,380
Hopelijk hebben we hiermee ook

939
00:46:41,700 --> 00:46:43,500
alle vragen van de sessie

940
00:46:43,520 --> 00:46:44,960
behandeld. Mocht er toch nog iets

941
00:46:45,150 --> 00:46:47,220
een vraag overkomen of een vervolgvraag op zijn

942
00:46:47,400 --> 00:46:49,540
neem alsjeblieft met Joop of met mij contact op

943
00:46:49,680 --> 00:46:51,540
en dan zorgen we dat we weer een podcast

944
00:46:51,700 --> 00:46:53,560
gaan opnemen met al jullie vragen. Dus ook vanuit

945
00:46:53,650 --> 00:46:55,360
andere sectoren. Heb je vragen?

946
00:46:55,800 --> 00:46:57,360
Neem contact met ons op.

947
00:46:59,320 --> 00:46:59,980
Ja, en

948
00:47:00,740 --> 00:47:02,020
mocht je zelf...

949
00:47:02,600 --> 00:47:03,840
Ik ben trouwens wel heel benieuwd.

950
00:47:04,380 --> 00:47:05,860
Laat ons eens weten of je een aflevering

951
00:47:05,940 --> 00:47:07,900
als dit ook leuk en waardevol vindt.

952
00:47:08,320 --> 00:47:09,680
Dat helpt ons ook. Dus dat kan

953
00:47:09,830 --> 00:47:11,700
altijd via de socials. Dankjewel

954
00:47:11,710 --> 00:47:13,340
weer voor het luisteren. Tot de volgende keer.

955
00:47:13,560 --> 00:47:14,180
Tot de volgende keer.

 



People on this episode