AIToday Live

S07E77 - Hoe de Consumentenbond AI inzet met Niels Kamper

Aigency by Info Support Season 7 Episode 77

In AIToday Live bespreken experts de laatste ontwikkelingen op het gebied van kunstmatige intelligentie. De podcast biedt inzicht in de toepassingen van AI vanuit verschillende perspectieven.

Luisteraars krijgen praktische informatie over de impact van AI op diverse sectoren. De afleveringen behandelen zowel technische als maatschappelijke aspecten van deze snel evoluerende technologie.

Onderwerpen

  • Ontwikkelingen in kunstmatige intelligentie
  • Toepassingen van AI in verschillende sectoren
  • Ethische overwegingen rondom AI
  • Data-analyse en machine learning
  • Toekomst van AI-technologie
Links

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:05,280
In deze aflevering hoor je Niels Kamper, Lead AI bij de Consumentenbond, die uitlegt hoe

2
00:00:05,280 --> 00:00:11,880
AI zowel kansen als uitdagingen voor consumenten creëert en welke maatregelen nodig zijn om

3
00:00:11,880 --> 00:00:13,440
transparantie te waarborgen.

4
00:00:13,440 --> 00:00:20,000
Niels deelt zijn praktijkervaring met het bewaken van consumentenrechten in het AI tijdperk

5
00:00:20,000 --> 00:00:24,760
en laat zien hoe de Consumentenbond zelf slimmer werkt met AI tools terwijl ze tegelijkertijd

6
00:00:24,760 --> 00:00:28,680
waakzaam blijven voor datamisbruik door grote techbedrijven.

7
00:00:28,680 --> 00:00:31,680
Veel plezier met deze aflevering!

8
00:00:33,820 --> 00:00:36,920
Heel leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

9
00:00:37,240 --> 00:00:40,060
Misschien wordt die licht verwarrend want we hebben een Niels en een Niels.

10
00:00:41,040 --> 00:00:42,720
Niels Kamper als gast.

11
00:00:43,760 --> 00:00:46,300
Maar een andere Niels stel je eens even voor.

12
00:00:46,740 --> 00:00:48,940
Niels Naglé, Area Lead Data & AI bij Info Support.

13
00:00:49,460 --> 00:00:51,020
En Joop Snijder, CTO bij Aigency.

14
00:00:51,900 --> 00:00:52,800
Ja, ik zei het al.

15
00:00:53,580 --> 00:00:55,860
Niels Kamper, Consumentenbond.

16
00:00:56,400 --> 00:00:58,160
Leuk dat je bij ons in de studio wil zijn.

17
00:00:59,159 --> 00:01:01,800
Zou je even willen voorstellen aan de luisteraar?

18
00:01:01,860 --> 00:01:02,180
Zeker.

19
00:01:03,120 --> 00:01:04,099
De tweede Niels vandaag.

20
00:01:05,420 --> 00:01:07,400
Niels Kamper, werkzaam bij de Consumentenbond.

21
00:01:07,840 --> 00:01:09,420
Ik ben daar werkzaam als Lead AI.

22
00:01:10,460 --> 00:01:13,100
Het houdt eigenlijk in dat ik me bezig hou met alles rondom AI.

23
00:01:14,120 --> 00:01:15,920
Omdat het even makkelijk te maken zijn met een aantal pijlers.

24
00:01:16,280 --> 00:01:18,420
De integrale AI-strategie bij de Consumentenbond.

25
00:01:19,700 --> 00:01:20,500
AI in de maatschappij.

26
00:01:20,640 --> 00:01:23,140
Dus de maatschappelijke impact van AI op de samenleving.

27
00:01:23,220 --> 00:01:24,120
Maar ook op consumenten.

28
00:01:24,940 --> 00:01:26,280
Het gaat ook over slimmer werken met AI.

29
00:01:26,380 --> 00:01:32,320
Dus hoe kan je AI, generatieve AI of ander soorten AI slimmer inzetten om slim te werken?

30
00:01:33,500 --> 00:01:34,860
En dat gaat ook over innovatie met AI.

31
00:01:34,940 --> 00:01:41,940
Dus wat doen we met AI in onze eigen producten en diensten en de buitenwereld waar onze leden of consumenten iets van gaan werken?

32
00:01:43,160 --> 00:01:47,080
Ja, een consumentenbond kan ik wel uitleggen, maar volgens mij zijn jullie allebei lid van de consumentenbond ga ik vanuit.

33
00:01:48,500 --> 00:01:48,740
Ik wel.

34
00:01:49,080 --> 00:01:49,500
Ik zie Nielsen.

35
00:01:50,720 --> 00:01:54,920
Ik durf dat niet te bevestigen, maar ook wel niet te ontkennen.

36
00:01:54,920 --> 00:01:55,880
Nee, ik weet het niet.

37
00:01:57,760 --> 00:02:00,060
Om misschien wel meteen naar die consumenten te gaan.

38
00:02:01,100 --> 00:02:04,040
Wat doen jullie dan in de combinatie AI en de consument?

39
00:02:05,180 --> 00:02:08,900
Ik denk dat wij als consumentenbond wel vrij uniek zijn.

40
00:02:08,919 --> 00:02:12,300
Als je gaat kijken wat de consument daarvan merkt.

41
00:02:13,000 --> 00:02:14,860
Als ik even de pijlers erbij pakte.

42
00:02:14,880 --> 00:02:18,300
We proberen als consumentenbond ook intern slimmer te werken met AI.

43
00:02:18,580 --> 00:02:21,660
Dus dat je eerder met de klantsignalen kan identificeren.

44
00:02:21,740 --> 00:02:23,260
Dat je daar sneller en slimmer op kan handelen.

45
00:02:24,060 --> 00:02:27,800
Maar we staan ook heel erg stil bij de impact van AI op consumenten.

46
00:02:29,260 --> 00:02:30,760
Daar besteden we natuurlijk ook al aandacht van.

47
00:02:30,830 --> 00:02:34,220
En dat maakt ons als consumentenbond denk ik al iets anders, iets unieker.

48
00:02:34,320 --> 00:02:40,219
Omdat dat een soort extra factor van wat is nou de maatschappelijke impact op consumenten, nemen we daar ook in mee.

49
00:02:41,340 --> 00:02:45,420
En daar zijn we natuurlijk ook gewoon bezig met het belangenbehartigen van consumenten.

50
00:02:46,020 --> 00:02:49,020
De impact van AI, wat gaan zij daarvan merken in goede zin.

51
00:02:49,320 --> 00:02:51,800
Want AI zelf is natuurlijk niet alleen maar iets slechts.

52
00:02:52,300 --> 00:02:54,080
Heel veel consumenten daar ook heel veel plezier van kunnen hebben.

53
00:02:55,220 --> 00:02:58,720
Maar het kan een negatieve impact zijn voor consumenten in de buitenwereld.

54
00:02:58,730 --> 00:03:00,540
En wat voor rol hebben we als consumentenbond daarin?

55
00:03:01,000 --> 00:03:07,700
Ik kan me wel voorstellen dat dat nogal een vogelvlucht heeft gemaakt voor de consument sinds ChatGPT komt.

56
00:03:07,920 --> 00:03:08,340
Ja, zeker.

57
00:03:08,920 --> 00:03:10,600
Zien je daar denk ik wel een enorme toename?

58
00:03:11,040 --> 00:03:17,860
Ja, ik denk dat het heel gaaf is dat je in de komst van ChatGPT een soort van de democratisering van jij.

59
00:03:18,080 --> 00:03:21,460
Iedereen had plots een schil gehetende ChatGPT waar je je vragen aan kan stellen.

60
00:03:21,540 --> 00:03:23,900
Dat merken we ook bij de Consumentenbond.

61
00:03:24,260 --> 00:03:25,660
Soms ook gewoon leden die ons bellen.

62
00:03:25,740 --> 00:03:28,080
Die soms veel beter geïnformeerd zijn.

63
00:03:28,140 --> 00:03:29,020
Ook wat hun rechten zijn.

64
00:03:29,419 --> 00:03:31,540
En dat onze juristen die van ons werken.

65
00:03:32,100 --> 00:03:33,540
Daar ook op een andere manier het gesprek aan gaan.

66
00:03:34,020 --> 00:03:35,380
Maar ook dat ze soms veel beter.

67
00:03:35,720 --> 00:03:36,740
Zelfstandig dingen uit kunnen zoeken.

68
00:03:37,700 --> 00:03:39,860
Dus ik denk dat de AI ook heel veel voordelen heeft.

69
00:03:40,440 --> 00:03:42,480
Waar je vroeger misschien een contract op je neus kreeg.

70
00:03:42,580 --> 00:03:44,600
Met allemaal complexe termen.

71
00:03:45,219 --> 00:03:46,840
Kunnen Consumentenbond zelfstandig tegenwoordig ook.

72
00:03:47,760 --> 00:03:48,800
Daar een foto van maken.

73
00:03:48,880 --> 00:03:49,940
Of behulp van ChatGPT.

74
00:03:50,740 --> 00:03:51,680
Dat voor Jip en Janneke.

75
00:03:52,860 --> 00:03:54,720
Dus het heeft ook een positie impact.

76
00:03:54,810 --> 00:03:56,360
En we merken er zelf ook wel wat van.

77
00:03:56,730 --> 00:03:58,320
Hoe consumenten informatie zoeken.

78
00:03:58,720 --> 00:04:00,220
Hoe ze informatie verwerken.

79
00:04:00,600 --> 00:04:02,480
En ook onze rol van de Consumentenbond.

80
00:04:02,540 --> 00:04:03,320
Hoe gaan wij daarmee om?

81
00:04:05,559 --> 00:04:09,120
En kijken jullie ook naar de AI-producten?

82
00:04:12,559 --> 00:04:15,120
Dus vanuit het consumentenperspectief gesproken?

83
00:04:15,740 --> 00:04:17,839
Wat bedoel je precies met producten?

84
00:04:19,200 --> 00:04:20,040
Testen en vergelijken?

85
00:04:20,860 --> 00:04:21,380
Ja, bijvoorbeeld.

86
00:04:22,560 --> 00:04:23,600
Nee, niet direct.

87
00:04:26,080 --> 00:04:29,300
We testen natuurlijk op producten en we vergelijken ook op diensten.

88
00:04:29,410 --> 00:04:32,960
Dus we zien ook wel dat wij nu ook steeds vaker in onze nieuwsbrieven...

89
00:04:32,960 --> 00:04:36,560
...en consumenten informeren over wat je met AI kan doen...

90
00:04:36,560 --> 00:04:37,520
...hoe je daar slim mee om kan gaan.

91
00:04:39,060 --> 00:04:43,380
Ik denk dat wij veel meer zitten op wat gebeurt in de buitenwereld...

92
00:04:43,380 --> 00:04:44,520
...en wat is de impact van consumenten.

93
00:04:45,880 --> 00:04:47,739
Om een voorbeeld te nemen, dat kan heel klein zijn...

94
00:04:47,759 --> 00:04:54,220
Dat wij een paar weken geleden zagen dat er een AI genereert filmpje van Dick Schoof live ging via Facebook.

95
00:04:54,320 --> 00:04:56,400
Waar hij geweldige crypto dingen aanprees.

96
00:04:56,640 --> 00:04:59,100
En dat het eigenlijk niet van echt onderscheiden was.

97
00:05:01,280 --> 00:05:04,020
En dat is ook het moment dat wij bijvoorbeeld Facebook even aan een jasje trekken.

98
00:05:04,080 --> 00:05:06,220
We zien dat dit viraal gaat, doe er iets aan.

99
00:05:07,040 --> 00:05:11,920
Maar het gaat natuurlijk ook over dat bedrijven data toe-eigenen.

100
00:05:12,080 --> 00:05:16,500
We weten allemaal dat data zeker goud is voor generatieve AI en het large language models.

101
00:05:17,520 --> 00:05:22,380
En dat we daar dan ook partijen op aanspreken van waarom hebben jullie zoveel data nodig en kan dat niet anders.

102
00:05:23,320 --> 00:05:27,800
Ik ben wel even nieuwsgierig hoe waren jullie erachter komen dat dat filmpje op Facebook stond.

103
00:05:27,860 --> 00:05:30,200
Was dat bij jullie gebracht? Kunnen mensen dat aanmelden?

104
00:05:30,920 --> 00:05:32,600
Ja, dat is een goede vraag.

105
00:05:33,400 --> 00:05:37,580
We hebben wel een aantal collega's die extreem in de materie zitten.

106
00:05:37,780 --> 00:05:41,300
En die nog net niet allemaal automatisch signalen hebben lopen van wat zien we daar gebeuren.

107
00:05:42,400 --> 00:05:45,800
Dus collega Peter is daar heel bedreven in om dat te vinden.

108
00:05:46,280 --> 00:05:47,940
Maar we krijgen natuurlijk ook van de consumenten...

109
00:05:47,940 --> 00:05:49,500
gewoon dag en dagelijks heel veel signalen binnen.

110
00:05:50,440 --> 00:05:52,020
Van, hé, ik heb het gezien, klopt dit?

111
00:05:52,250 --> 00:05:54,680
En dat komt dan bij een medewerker van de klantenservice...

112
00:05:54,680 --> 00:05:57,060
een juridische adviseur bij ons binnen.

113
00:05:57,340 --> 00:05:58,960
En dat gaat dan heel snel weer...

114
00:05:59,040 --> 00:06:00,740
een soort van de keten omhoog van...

115
00:06:00,740 --> 00:06:03,860
hé, we krijgen nu een melding van een Facebook-filmpje.

116
00:06:04,560 --> 00:06:05,820
Consument, doe daar iets aan.

117
00:06:06,580 --> 00:06:07,580
Ja, en soms lukt het ons wel.

118
00:06:08,300 --> 00:06:10,360
En soms even aanhouden en dan lukt het niet.

119
00:06:10,610 --> 00:06:11,320
Maar, ja.

120
00:06:12,140 --> 00:06:15,459
Nou, we hebben onlangs Wetransfer wilde...

121
00:06:17,140 --> 00:06:18,440
de overeenkomsten aan gaan passen.

122
00:06:18,760 --> 00:06:20,340
Dat alles wat jij verstuurt,

123
00:06:20,410 --> 00:06:22,500
dat dat mogelijk gebruikt kan worden om

124
00:06:23,040 --> 00:06:23,920
modellen mee te trainen.

125
00:06:24,350 --> 00:06:25,860
Dat kwam neem ik aan ook bij jullie voorbij.

126
00:06:26,150 --> 00:06:28,000
Ja, wat is dat? In propriety of zo?

127
00:06:28,160 --> 00:06:30,360
In de eeuwigheid, einde der dagen.

128
00:06:30,740 --> 00:06:31,920
Doe je afstand van je data?

129
00:06:32,090 --> 00:06:34,140
Ja, kijk, dat is natuurlijk gewoon bizar.

130
00:06:34,740 --> 00:06:35,760
En wat het mooie daarvan is,

131
00:06:35,770 --> 00:06:37,860
is dat als consument ook signaleerde,

132
00:06:38,360 --> 00:06:40,200
maar eigenlijk heel Nederland

133
00:06:40,920 --> 00:06:42,360
stortte zich al overheen

134
00:06:42,500 --> 00:06:44,640
voordat we ook als Consumentenbond iets aan konden doen.

135
00:06:44,780 --> 00:06:46,540
Dus daar hebben we natuurlijk al aandacht aan geschonken.

136
00:06:46,700 --> 00:06:49,880
Maar het is wel de bewegingen wat je gewoon ziet.

137
00:06:51,620 --> 00:06:53,660
Dat daten gewoon steeds belangrijker voor zulke bedrijven.

138
00:06:53,740 --> 00:06:57,480
En dat ze ook in de voorwaarden daar toch oneigenlijke dingen mee doen.

139
00:06:58,720 --> 00:06:59,960
En daar hebben we natuurlijk ook gewoon de rol in.

140
00:07:00,070 --> 00:07:04,580
Om daar consumenten over te informeren natuurlijk.

141
00:07:05,700 --> 00:07:07,000
Het is een bizarre situatie.

142
00:07:07,110 --> 00:07:07,300
Ja toch?

143
00:07:09,360 --> 00:07:11,940
Als het niet opvalt, dan denk je dat.

144
00:07:12,640 --> 00:07:15,240
En wat dan grappig is, ik heb daar niet op LinkedIn gezet,

145
00:07:15,240 --> 00:07:19,100
maar wel intern op onze internet bij de Consumentenbond,

146
00:07:19,280 --> 00:07:22,860
dat ik ook zei van jongens, waar je voorheen bijvoorbeeld aangepaste voorwaarden kreeg

147
00:07:22,880 --> 00:07:25,980
van je product of dienst, waar je normaal eigenlijk misschien doorheen scrolt

148
00:07:26,000 --> 00:07:27,240
of gewoon zegt van ja, het zal wel.

149
00:07:27,860 --> 00:07:29,480
Ja, moet je eigenlijk wel verdomd goed opletten.

150
00:07:29,520 --> 00:07:32,140
Ook als Consumentenbond, dat het een leverancier gewoon de voorwaarden aanpast.

151
00:07:32,140 --> 00:07:34,080
Ja, wat staat daar nou?

152
00:07:34,840 --> 00:07:38,380
Dus hebben we ook gewoon een prompt geschreven en collega's geïnformeerd van

153
00:07:38,420 --> 00:07:39,480
ja, zie je zo'n voorwaarde?

154
00:07:39,520 --> 00:07:44,040
Hier is een uitgebreide prompt waar je ook kan checken op welke voorwaarden zijn aangepast.

155
00:07:44,260 --> 00:07:52,620
Dan hebben we natuurlijk ook gewoon gelijk een proces ingericht om zeker op zulke dingen gewoon heel snel te kunnen reageren.

156
00:07:52,620 --> 00:07:57,520
Dus nu gebruikt ons jurist natuurlijk een extra prompt erbij om gewoon gelijk de voorwaarden uit te lezen.

157
00:07:57,680 --> 00:08:01,000
En dat gaat natuurlijk veel meer gebeuren, want ze zijn natuurlijk op zoek naar nieuwe data.

158
00:08:02,660 --> 00:08:04,780
Het internet is nu denk ik wel...

159
00:08:04,960 --> 00:08:05,480
Wegezo.

160
00:08:05,780 --> 00:08:07,100
Ja, in die zin.

161
00:08:07,620 --> 00:08:10,520
Dus waar komt nu weer nieuwe originele data vandaan?

162
00:08:11,880 --> 00:08:14,640
Bij dit soort diensten moet je dan echt heel erg gaan opletten.

163
00:08:15,460 --> 00:08:16,940
Nou ja, en je ziet dat natuurlijk met,

164
00:08:18,280 --> 00:08:19,780
een maand, een aandacht, maand geleden,

165
00:08:20,040 --> 00:08:22,600
dat Medda aankondigde van alle publieke info,

166
00:08:23,480 --> 00:08:25,340
dat wordt ook onderdeel van de trainingsdata.

167
00:08:26,280 --> 00:08:28,100
Nou ja, daar hebben we ons ook flink mee bemoeid

168
00:08:28,280 --> 00:08:29,820
en meten daarop aangesproken.

169
00:08:30,780 --> 00:08:32,900
Flink aan de boom zitten rammelen.

170
00:08:33,679 --> 00:08:34,679
Dus we zijn daar wel waakzaam op

171
00:08:34,700 --> 00:08:36,799
en we proberen daar echt wel een stem te laten horen

172
00:08:36,820 --> 00:08:37,860
dat het gewoon niet kan.

173
00:08:38,919 --> 00:08:41,620
Want als gebruiker van Facebook of Meta,

174
00:08:42,299 --> 00:08:43,440
je gebruikt het misschien al jaren.

175
00:08:44,540 --> 00:08:46,600
Je hebt zeven, acht of tien jaar geleden

176
00:08:46,660 --> 00:08:47,560
had je nooit kunnen verwachten

177
00:08:47,560 --> 00:08:50,480
dat alle data die nu post wordt gebruikt

178
00:08:50,600 --> 00:08:53,960
voor de doeleinden waar we nu zitten.

179
00:08:54,140 --> 00:08:56,660
Dus daar moet je consumenten ook in beschermen.

180
00:08:57,060 --> 00:08:58,320
En dat proberen we dan ook.

181
00:09:00,060 --> 00:09:05,219
Je zei al, voor de consument gaat het ook positieve dingen leveren.

182
00:09:05,240 --> 00:09:10,820
Wat zie jij als versterkende elementen voor twee, drie jaar?

183
00:09:10,920 --> 00:09:12,839
Niet te ver vooruit, want dat is heel moeilijk om te kijken.

184
00:09:15,640 --> 00:09:17,440
Voor mezelf bespeel ik daar ook een soort van dualiteit.

185
00:09:17,600 --> 00:09:22,660
Want enerzijds wordt het voor consumenten ook steeds makkelijker op een generatieve manier.

186
00:09:24,560 --> 00:09:27,840
Het gesprek is het nieuwe zoeken, een conversatie is het nieuwe zoeken.

187
00:09:28,260 --> 00:09:30,460
Op zo'n manier ook makkelijke informatie tot zich te nemen.

188
00:09:32,080 --> 00:09:37,740
Ik merk ook dat voor consumenten die misschien wat meer moeite hebben om complexe materie eigen te maken,

189
00:09:37,740 --> 00:09:39,940
dat ze AI steeds beter kunnen gebruiken om dat ook te snappen.

190
00:09:40,220 --> 00:09:45,100
Dus daar ontstaat een soort gelijk speelveld ook, waar consumenten een voordeel mee kunnen doen.

191
00:09:46,600 --> 00:09:50,860
Maar ik zie ook gelijk dat het wel heel diffuus kan worden voor consumenten als ze informatie zoeken.

192
00:09:51,860 --> 00:09:53,720
Ik denk dat het voor de consumenten een aandachtspunt is.

193
00:09:54,460 --> 00:09:59,080
Maar ik geloof, als ik door ga rekenen, kijken naar de komende twee, drie jaar,

194
00:09:59,880 --> 00:10:01,600
Ik denk dat het ook wel heel spannend kan zijn.

195
00:10:02,870 --> 00:10:08,560
Het kan consumenten misschien nog meer mandaten en macht geven om gelijk te halen.

196
00:10:08,560 --> 00:10:13,280
Of dat nou een juridisch onderbouwde brief schrijven en op te sturen naar een leverancier.

197
00:10:13,330 --> 00:10:19,020
Ik wil dat je nu binnen twee weken mijn product retour geeft of mijn geld terug geeft.

198
00:10:19,260 --> 00:10:20,100
Dat romp je er zo uit.

199
00:10:20,570 --> 00:10:23,340
De vraag is of zo'n juridisch brief dan wel helemaal klopt.

200
00:10:23,370 --> 00:10:25,640
Of niet dat het op basis van verzonnen info is.

201
00:10:27,520 --> 00:10:28,800
Maar ja, ik zie ook een kant op gaan.

202
00:10:29,460 --> 00:10:31,780
Je hebt het al meegekregen met Google AI Overviews.

203
00:10:31,820 --> 00:10:38,720
Dat er toch ook een wereld ontstaat waar feitelijke data en verzonnen data een soort een-worden.

204
00:10:38,860 --> 00:10:41,720
En dat het voor een consument ook steeds lastig wordt.

205
00:10:41,880 --> 00:10:45,660
Wat is nou eigenlijk de waarheid en waar doe ik nou goed aan?

206
00:10:46,460 --> 00:10:49,560
Dus het wordt ook complex denk ik voor heel veel consumenten.

207
00:10:50,480 --> 00:10:52,100
Ja en daar raak je denk ik wel een belangrijk punt.

208
00:10:52,680 --> 00:10:53,800
Hoe ga je dat dadelijk zien?

209
00:10:54,020 --> 00:10:56,300
Hoe transparant zijn de oplossingen die er zijn?

210
00:10:56,370 --> 00:10:58,520
En hoeveel invloed hebben we erop op die transparantie?

211
00:10:59,340 --> 00:11:04,640
Ja, ik denk dat je transparantie probeer je natuurlijk ook deels af te dwingen.

212
00:11:04,820 --> 00:11:07,960
Of dat nou via de AI-actics of alle standaardisatie daarbij gaat komen.

213
00:11:08,100 --> 00:11:13,640
Dat techbedrijven wel transparant moeten zijn in hoe ze modellen inzetten.

214
00:11:13,860 --> 00:11:14,880
En dat het verklaarbaar moet zijn.

215
00:11:15,020 --> 00:11:15,780
Dat is één kant.

216
00:11:17,540 --> 00:11:21,640
Maar ik denk ook wel, om net een voorbeeld te geven van de AI-overviews.

217
00:11:21,640 --> 00:11:23,900
Dat het soms ook al lastig zijn.

218
00:11:23,930 --> 00:11:25,520
Wij proberen als Consumentenbond ook onderzoek te doen.

219
00:11:25,610 --> 00:11:27,340
Dus we hebben ook allemaal monitoring tools lopen.

220
00:11:27,500 --> 00:11:30,740
Wat zeggen die large language models nou over de consumentenbond?

221
00:11:31,600 --> 00:11:32,640
Worden wij wel gevonden?

222
00:11:32,700 --> 00:11:35,800
Als iemand nou zegt van ik ga naar het strand.

223
00:11:36,400 --> 00:11:38,160
Morgen wordt het 30 graden met mijn kinderen.

224
00:11:38,400 --> 00:11:40,240
Welke zonnebrand moet ik nou gebruiken?

225
00:11:40,740 --> 00:11:44,420
Word je daar dan als consumentenbond genoemd met de beste resultaten.

226
00:11:44,440 --> 00:11:45,660
De meest betrouwbare zonnebrand.

227
00:11:45,820 --> 00:11:53,520
Of komt daar een zonnebrand antwoord uitrollen van 1234zonnebrand.nl.

228
00:11:53,600 --> 00:11:55,860
Waarvan je niet weet is dat wel betrouwbaar ja of nee.

229
00:11:57,180 --> 00:12:01,260
En wat we nu al zien, en dat vind ik al interessant, maar ook al zorgwekkend,

230
00:12:01,280 --> 00:12:04,780
is dat, zeker in de AI-antwoorden, data soms wordt versmolten.

231
00:12:04,900 --> 00:12:06,060
Dus het begint soms met een inleiding.

232
00:12:06,580 --> 00:12:08,060
Volgens de Consumentenbond is het belangrijk dat.

233
00:12:08,680 --> 00:12:10,980
En dan zie je een lijstje met zonnebrand bronmerken.

234
00:12:11,100 --> 00:12:12,960
Maar die zijn weer afkomstig van andere bronnen.

235
00:12:13,080 --> 00:12:19,860
Maar voor de gemiddelde gebruiker of lezer, lijkt het allemaal één antwoord te zijn.

236
00:12:20,040 --> 00:12:21,200
Dat de Consumentenbond zegt dat.

237
00:12:21,640 --> 00:12:23,560
En probeer daar maar doorheen te prikken.

238
00:12:24,579 --> 00:12:25,500
Daarom ook wel de vraag.

239
00:12:25,780 --> 00:12:29,640
Want Niels, je vroeg meteen transparantie eisen.

240
00:12:29,760 --> 00:12:32,440
Maar wat is eigenlijk dan transparantie?

241
00:12:33,120 --> 00:12:36,140
Ja, je kan de wettelijke definitie in de AI.

242
00:12:36,740 --> 00:12:38,260
Maar heel praktisch.

243
00:12:39,080 --> 00:12:42,340
Ik denk dat je transparantie op verschillende manieren kan interpreteren.

244
00:12:42,340 --> 00:12:46,420
Dus ook als ik of jij ook contact hebt met een bedrijf.

245
00:12:46,420 --> 00:12:47,440
Of er nou een chatbot is.

246
00:12:48,220 --> 00:12:50,180
Of jouw document gaat door een systeem.

247
00:12:50,180 --> 00:12:53,060
En dat je ook transparant is dat dat gebeurt.

248
00:12:53,100 --> 00:12:54,580
Dat je met een AI-chatbot praat.

249
00:12:54,780 --> 00:12:58,500
Dat jij door een AI-proces heen gaat en dat je ook gewoon weet wat daar gebeurt.

250
00:12:59,040 --> 00:13:05,320
En nog belangrijker dat zo'n bedrijf ook kan verklaren welke stappen gaat zo'n document doorheen.

251
00:13:05,540 --> 00:13:06,800
Dus een stukje verklaren is heel belangrijk.

252
00:13:07,880 --> 00:13:12,140
En transparantie voor mij is ook dat bedrijven gewoon transparant zijn dat ze AI-systemen hebben.

253
00:13:12,340 --> 00:13:14,060
Wat voor soort AI-systemen hebben.

254
00:13:14,240 --> 00:13:17,320
Wat er met de data gebeurt van gebruikers en consumenten.

255
00:13:17,680 --> 00:13:19,960
En dat je als consument ook gewoon ervan kan kiezen.

256
00:13:20,180 --> 00:13:21,800
Ik maak daar wel of geen gebruik van.

257
00:13:23,020 --> 00:13:26,280
Maar het moet gewoon duidelijk zijn dat je met een AI-systeem aan het communiceren bent.

258
00:13:26,700 --> 00:13:29,260
Maar als ik dan misschien een beetje prik.

259
00:13:29,300 --> 00:13:29,900
Ja, je mag prikken.

260
00:13:30,660 --> 00:13:33,760
Krijgen we dan niet de volgende cookie-wet?

261
00:13:34,140 --> 00:13:36,560
Dat ik dan naast moet zeggen, ja, ik accepteer de cookies.

262
00:13:36,780 --> 00:13:39,220
Ja, ik accepteer ook de AI.

263
00:13:39,480 --> 00:13:40,480
Ja, dat kan zomaar, denk ik.

264
00:13:40,880 --> 00:13:44,480
Ik weet niet hoe vaak jij de cookie-consent-button open klikt.

265
00:13:44,520 --> 00:13:47,220
En dan gaat kijken wat je wel of niet gebruikt.

266
00:13:48,900 --> 00:13:50,800
Ik denk dat je daar wel modus moet gaan vinden.

267
00:13:51,000 --> 00:13:52,260
Ook vanuit de Europese wetgeving.

268
00:13:52,420 --> 00:13:54,260
speelt van, ja, hoe maak je dat nou

269
00:13:54,639 --> 00:13:56,580
laagdrempelig en hoe maak je dat gemakkelijk voor gebruikers?

270
00:13:57,320 --> 00:13:58,560
Het helpt natuurlijk al heel erg dat je,

271
00:13:59,280 --> 00:14:00,580
als je aan het praten bent met een chatbot,

272
00:14:00,650 --> 00:14:02,260
dat je gewoon weet dat het een AI-chatbot is.

273
00:14:02,480 --> 00:14:04,440
Zeker. Niet dat je na een half uur praat

274
00:14:04,480 --> 00:14:06,240
met zogenaamd heel veel empathie erachter komt.

275
00:14:06,360 --> 00:14:08,320
Ja, ik ben nu aan het... Maar ik denk dat die nog best wel

276
00:14:08,440 --> 00:14:10,220
makkelijk is, hè? Maar juist

277
00:14:10,420 --> 00:14:12,440
dat datagebruik, waar we net ook al over hadden,

278
00:14:13,879 --> 00:14:14,440
die willen

279
00:14:14,450 --> 00:14:16,180
ze natuurlijk zo ver mogelijk wegstoppen,

280
00:14:16,210 --> 00:14:18,400
net zo goed als, weet je, want als je hem wel open klikt,

281
00:14:18,540 --> 00:14:20,359
soms, dat je gewoon ziet dat

282
00:14:21,840 --> 00:14:22,720
635 bedrijven

283
00:14:22,980 --> 00:14:24,240
daarmee je data wordt gedeeld.

284
00:14:25,840 --> 00:14:27,000
Of 6100 zelfs.

285
00:14:31,640 --> 00:14:32,420
Dat is natuurlijk

286
00:14:32,680 --> 00:14:33,220
veel lastiger.

287
00:14:36,640 --> 00:14:38,480
Dan komt het weer in de kleine lettertjes.

288
00:14:38,640 --> 00:14:39,780
Ja, dan komt het weer in de kleine lettertjes.

289
00:14:42,240 --> 00:14:44,820
Ik wil voorkomen dat het een soort van

290
00:14:44,930 --> 00:14:45,480
cookie consent

291
00:14:46,070 --> 00:14:47,640
gaat worden. Dat iedereen maar klakkeloos

292
00:14:47,640 --> 00:14:48,999
ja, ja, ja klikt en

293
00:14:49,020 --> 00:14:50,000
En niet bij stilstaat.

294
00:14:50,000 --> 00:14:54,840
Dus ik denk ook al een stukje informeren van consumenten en gebruikers.

295
00:14:54,880 --> 00:14:56,180
Wat kan er gebeuren als...

296
00:14:56,580 --> 00:14:58,840
Ik denk ook dat het heel belangrijk is voor gebruikers...

297
00:14:58,840 --> 00:15:01,620
om het ook te kunnen herkennen dat er iets gebeurd wordt.

298
00:15:01,740 --> 00:15:04,760
Daar zijn we met onze juridisch medewerkers bij de consumenten...

299
00:15:04,760 --> 00:15:05,400
heel erg mee bezig.

300
00:15:05,500 --> 00:15:08,720
Dat als je ergens een verzekering aanvraagt...

301
00:15:08,720 --> 00:15:11,140
en je binnen letterlijk tien seconden word je afgewezen...

302
00:15:11,140 --> 00:15:15,740
dan kan je ervan uitgaan dat daar een energie-systeem achter zit.

303
00:15:15,860 --> 00:15:16,860
Dus het is ook een stukje herkennen.

304
00:15:18,000 --> 00:15:22,860
Ja, en ik denk ook al dat het vraagt om de goede samenwerking met de autoriteit persoonsgegevens,

305
00:15:22,930 --> 00:15:25,560
waar wij heel erg nauw meer samenwerken.

306
00:15:26,450 --> 00:15:30,100
Ook om signalen te delen, om misstanden tegen te gaan.

307
00:15:31,440 --> 00:15:34,520
En de autoriteit persoonsgegevens heeft bijvoorbeeld ook een heel directste team voor algoritmes.

308
00:15:34,650 --> 00:15:38,120
Dus die zitten ook al hopelijk op de handhaving van zo'n AI-act.

309
00:15:38,380 --> 00:15:41,980
Je kan natuurlijk wel zeggen van zo hoort het, maar uiteindelijk gaan bedrijven natuurlijk altijd het randje opzoeken.

310
00:15:42,840 --> 00:15:43,920
Kijken we naar WeTransfer.

311
00:15:44,160 --> 00:15:48,540
Het is misschien dat er zoveel ophef over ontstaat.

312
00:15:48,550 --> 00:15:50,040
Dat ze gewoon een keutel intrekken natuurlijk.

313
00:15:50,210 --> 00:15:52,540
Maar uiteindelijk zegt het wel over de intentie.

314
00:15:52,660 --> 00:15:54,440
Die vaak grote bedrijven hebben.

315
00:15:54,550 --> 00:15:56,100
Om gewoon maar de data naar binnen te slurpen.

316
00:15:56,660 --> 00:15:58,300
En dan kan je ze gewoon niet op de blauwe ogen vertrouwen.

317
00:15:58,380 --> 00:15:59,480
Dat ze altijd de beste intenties hebben.

318
00:16:00,660 --> 00:16:03,220
En zou het ook omgedraaid moeten worden.

319
00:16:03,560 --> 00:16:06,560
Dat bedrijven misschien beschermd moeten worden voor de consument.

320
00:16:06,630 --> 00:16:09,260
Die gaat zo direct allemaal agents inzetten.

321
00:16:09,620 --> 00:16:10,240
Ja, we hadden het net over.

322
00:16:13,600 --> 00:16:19,060
Kijk, nu ga je ervan uit dat een gebruiker bij jouw website komt en je formulieren invult.

323
00:16:20,240 --> 00:16:25,820
De ChatGPT agent kan nu makkelijk door de dingen heen van ik ben geen robot.

324
00:16:25,840 --> 00:16:26,280
Ja, zeker.

325
00:16:27,600 --> 00:16:29,200
Moeten die eigenlijk ook niet beschermd worden?

326
00:16:29,940 --> 00:16:30,520
De bedrijven zelf?

327
00:16:31,200 --> 00:16:34,680
Laten we zeggen dat er een transparantie-eis is.

328
00:16:35,420 --> 00:16:36,080
Van de consument.

329
00:16:36,380 --> 00:16:41,900
Ja, dat je als mens de data van het bedrijf, wat ook gewoon een website kan zijn,

330
00:16:42,480 --> 00:16:47,220
benadert of dat het een AI agent is of wat dan ook.

331
00:16:47,540 --> 00:16:52,140
Ik denk zeker ook als gebruiker of consument...

332
00:16:52,140 --> 00:16:55,320
dat je daar altijd heel scherp in moet zijn van waarmee werk je.

333
00:16:55,320 --> 00:16:57,440
En natuurlijk kan je aan de bedrijvenkant zeggen...

334
00:16:57,440 --> 00:16:59,700
zorg dat je goed op orde zit.

335
00:17:00,320 --> 00:17:03,640
Maar ik denk ook dat voor de gemiddelde gebruik ook heel verstandig is...

336
00:17:03,640 --> 00:17:06,579
om te weten wat gebeurt dan eigenlijk als jij een agent gebruikt.

337
00:17:07,540 --> 00:17:11,220
We spraken kort voor de aflevering met nieuws van mij op de gang.

338
00:17:12,180 --> 00:17:14,280
je hebt nu natuurlijk een JTB agent modus.

339
00:17:14,319 --> 00:17:16,680
Daar zou je als je zou willen gewoon je creditcard geven,

340
00:17:16,839 --> 00:17:18,540
daarmee kunnen geven inlogdetails en zeggen van

341
00:17:18,540 --> 00:17:21,319
nou trek Zalando leeg en ik wil een jurkje kopen.

342
00:17:22,138 --> 00:17:24,760
Als consument maak je dan bewuste keuze om

343
00:17:25,339 --> 00:17:27,960
dan je financiële details mee te geven.

344
00:17:28,060 --> 00:17:31,320
En ik denk dat je daar ook een soort van AI geletterdheid

345
00:17:31,580 --> 00:17:33,700
moet hebben als gemiddelde gebruiker.

346
00:17:33,700 --> 00:17:38,240
Dat je weet van ja, als ik nu mijn gegevens meegeef aan een AI agent,

347
00:17:38,440 --> 00:17:39,840
dat daar van alles mee kan gebeuren.

348
00:17:39,920 --> 00:17:41,639
Dus er zit zeker ook een verantwoordelijkheid bij

349
00:17:41,940 --> 00:17:43,300
Bijvoorbeeld een consument.

350
00:17:44,320 --> 00:17:44,780
Of gebruiker.

351
00:17:44,900 --> 00:17:45,600
Wat geef je nou wel.

352
00:17:45,680 --> 00:17:48,379
Of wat geef je nou niet mee aan een AI systeem.

353
00:17:48,800 --> 00:17:50,100
Sommige mensen zijn er heel comfortabel bij.

354
00:17:50,259 --> 00:17:53,360
Die geven nog niet paspoortgegevens mee.

355
00:17:53,440 --> 00:17:54,800
Dat zou ik absoluut niet aanraden.

356
00:17:54,820 --> 00:17:55,240
Doe dat niet.

357
00:17:57,060 --> 00:17:58,619
Dus daar zit echt wel een aandachtspunt.

358
00:17:59,060 --> 00:18:00,860
Het risico is dat het ook heel gemakkelijk gemaakt.

359
00:18:01,260 --> 00:18:03,480
Een stukje vertrouwen in een klein deel.

360
00:18:03,720 --> 00:18:05,660
Maar wat erachter allemaal plaats kan vinden.

361
00:18:06,420 --> 00:18:07,700
Agents die weer samen gaan werken.

362
00:18:07,860 --> 00:18:08,780
Die data weer uitwisten.

363
00:18:08,880 --> 00:18:09,920
Dus het kan veel verder gaan dan dat.

364
00:18:10,500 --> 00:18:14,660
Maar wat is je beeld van hoe wordt de consument nu hierin getraind?

365
00:18:15,140 --> 00:18:17,220
Is dat genoeg? Moeten we daar meer aan doen?

366
00:18:17,980 --> 00:18:21,480
Nou ja, ik denk dat we daar wel meer aan kunnen doen.

367
00:18:21,500 --> 00:18:24,340
Er zijn echt prachtige initiatieven, zoals Jim Stoltz, die kennen we wel.

368
00:18:24,400 --> 00:18:26,020
Die hebben natuurlijk de nationale AI-cursus.

369
00:18:27,220 --> 00:18:31,000
Maar ik denk dat dat belangrijk is, en ook vanuit de Consumentenbond,

370
00:18:31,040 --> 00:18:32,800
om daar misschien nog vaker aandacht aan te besteden.

371
00:18:32,940 --> 00:18:34,320
Wat gebeurt er nou in de wereld?

372
00:18:34,500 --> 00:18:36,180
En hoe herken je dat je met AI te maken heeft?

373
00:18:36,200 --> 00:18:40,300
En hoe kan je het niet alleen maar bang maken rijden, van de wereld vergaat.

374
00:18:40,360 --> 00:18:42,160
en pas op, maar ook de kracht van

375
00:18:42,830 --> 00:18:44,500
onder andere generatieve AI en AI te laten zien.

376
00:18:45,020 --> 00:18:46,200
Dus er zit echt wel een soort

377
00:18:46,380 --> 00:18:48,280
productiviteit vanuit ons om, denk ik,

378
00:18:48,420 --> 00:18:50,600
daar, consumenten daar iets in geletterder

379
00:18:50,670 --> 00:18:51,900
in te maken, om het zo maar te zeggen.

380
00:18:52,420 --> 00:18:53,840
Wij zijn ook al geweldige initiatieven, bijvoorbeeld

381
00:18:54,040 --> 00:18:55,920
van de nationale AI-cursus van Jim, waarvan

382
00:18:56,520 --> 00:18:57,840
dat is gewoon gratis, open.

383
00:18:58,520 --> 00:19:00,080
Maar consumenten moeten het wel weten te vinden.

384
00:19:00,260 --> 00:19:02,540
Ja, ja. En ik was wel nieuwsgierig,

385
00:19:02,690 --> 00:19:04,240
misschien dat het erop staat, had ik misschien even moeten zoeken.

386
00:19:05,340 --> 00:19:06,200
Ik verwijt het mezelf.

387
00:19:07,020 --> 00:19:08,540
Hebben jullie ook use cases

388
00:19:08,940 --> 00:19:10,600
waardoor het praktisch wordt voor de consument

389
00:19:10,800 --> 00:19:14,200
waar er juist dingen goed gaan, waar de uitdagingen liggen.

390
00:19:14,520 --> 00:19:17,060
Want ik denk dat dat vaak lastig is voor mensen om het te kunnen plaatsen

391
00:19:17,060 --> 00:19:18,960
van waar lopen ik er nu tegenaan of niet?

392
00:19:19,200 --> 00:19:23,280
En hoe komen we dicht bij de consument in de belevingswereld van de consument?

393
00:19:23,640 --> 00:19:26,300
Ja, en dan bedoel je van doen wij iets qua informeren

394
00:19:26,350 --> 00:19:28,680
of gewoon doen wij iets vanuit onze producten en diensten

395
00:19:28,710 --> 00:19:30,880
waar consumenten al iets van kunnen bemerken?

396
00:19:30,900 --> 00:19:33,400
Vooral een stukje informeren, dat mensen zelf doorhebben van

397
00:19:33,430 --> 00:19:36,780
oh wacht, ik heb hetzelfde situatie meegemaakt.

398
00:19:37,080 --> 00:19:39,380
Ja, nee. Ik denk dat we daar nog meer aan kunnen doen.

399
00:19:39,480 --> 00:19:42,240
We hebben wel bepaalde dossierpagina's waar we zaken over delen.

400
00:19:42,680 --> 00:19:44,280
Het is voor ons soms ook wel een beetje zoeken.

401
00:19:44,320 --> 00:19:47,580
Want er speelt heel veel in de wereld.

402
00:19:47,600 --> 00:19:49,560
En ik heb het er wel heel vaak met collega's over.

403
00:19:49,740 --> 00:19:52,540
We hebben soms ook vaak wel een soort chronisch keuzestress.

404
00:19:52,640 --> 00:19:52,980
Doe ik het al?

405
00:19:53,000 --> 00:19:55,400
Want er zijn zoveel maatschappelijke fricties.

406
00:19:55,660 --> 00:20:00,300
Of het nou foute bedrijven zijn die woekerpolissen aansmeren.

407
00:20:01,280 --> 00:20:02,980
Misstanden, data privacy.

408
00:20:03,180 --> 00:20:05,220
Er zijn natuurlijk heel veel dingen die we oppakken.

409
00:20:05,280 --> 00:20:06,740
En we moeten soms ook bepaalde dingen laten.

410
00:20:07,140 --> 00:20:10,140
Of daar kunnen we niet genoeg aandacht in geven dat we zouden willen.

411
00:20:10,600 --> 00:20:11,740
Dus het is soms ook een keuze maken.

412
00:20:11,810 --> 00:20:13,080
Nu doen we het een beetje.

413
00:20:13,250 --> 00:20:14,140
Maar als het aan mij ligt.

414
00:20:14,140 --> 00:20:16,300
Maar ja, ik ben niet helemaal objectief.

415
00:20:16,330 --> 00:20:18,880
Want ik denk dat we daar ook nog veel meer aan kunnen doen.

416
00:20:19,020 --> 00:20:23,580
En dat kan in kleine dingen zijn als, doe de deepfake test.

417
00:20:23,980 --> 00:20:26,880
Dat we gewoon een pagina live zetten van herken de deepfake.

418
00:20:27,860 --> 00:20:29,600
Hoe kan je nou spotten dat iets niet is?

419
00:20:31,420 --> 00:20:32,200
Om een voorbeeld te geven.

420
00:20:33,380 --> 00:20:34,000
Kijk intern.

421
00:20:34,180 --> 00:20:35,540
En het grappige is naar de collega's.

422
00:20:35,620 --> 00:20:37,380
bij de consumenten komt toen heel veel experimenten

423
00:20:37,440 --> 00:20:38,900
om een juist gelet te krijgen.

424
00:20:39,100 --> 00:20:40,020
En daar doen we ook dingen zoals

425
00:20:41,660 --> 00:20:42,300
herkende deepfakes.

426
00:20:43,280 --> 00:20:45,900
Wat zijn de ontwikkelingen op het gebied van stemklonen?

427
00:20:46,880 --> 00:20:47,800
Ik denk dat ik een half jaar geleden

428
00:20:47,840 --> 00:20:48,700
heb met jou het over gehad.

429
00:20:49,340 --> 00:20:50,760
Had ik alle collega's bij elkaar gehaald.

430
00:20:51,780 --> 00:20:53,180
Dan liet ik ook een experiment zien dat ik

431
00:20:53,440 --> 00:20:55,000
ruim drie weken met mijn vader aan het

432
00:20:55,580 --> 00:20:56,620
voice chatten was via WhatsApp.

433
00:20:57,360 --> 00:20:59,200
Met mijn gekloonde stem.

434
00:20:59,780 --> 00:21:01,120
Mijn vader had geen één keer door.

435
00:21:01,340 --> 00:21:03,400
Hij zei wel later tegen mij, ik vind het een beetje bijzonder

436
00:21:03,500 --> 00:21:04,680
dat je nu heel veel voice berichten stuurt.

437
00:21:06,040 --> 00:21:06,940
Het zal wel.

438
00:21:08,660 --> 00:21:09,280
En in de auto.

439
00:21:09,620 --> 00:21:11,260
Ik had een beetje autogeluiden op de achtergrond gezet.

440
00:21:12,280 --> 00:21:13,900
En hij had niet door dat ik het niet was.

441
00:21:14,040 --> 00:21:16,220
En dan kom je dus ook weer naar de gemiddelde

442
00:21:16,520 --> 00:21:17,380
burger of consument toe.

443
00:21:19,359 --> 00:21:20,840
Je spreekt een codewoord af.

444
00:21:21,060 --> 00:21:23,280
Denk je, twijfelt je of iemand je appt van

445
00:21:23,340 --> 00:21:25,080
ik heb geld nodig en je krijgt een voicebericht

446
00:21:25,620 --> 00:21:27,320
erachteraan van jouw dochter of man.

447
00:21:28,140 --> 00:21:28,480
Of van hey,

448
00:21:29,540 --> 00:21:31,500
ik sta bij een benzinepomp, ik heb nu 50 euro

449
00:21:31,660 --> 00:21:32,680
of 500 euro nodig.

450
00:21:33,300 --> 00:21:35,680
Ik kan er niet meer vanuit gaan dat dat klopt.

451
00:21:35,800 --> 00:21:36,720
Dus handige tips.

452
00:21:36,840 --> 00:21:38,920
Spreek met elkaar naar een code woord die jullie alleen maar kennen.

453
00:21:39,960 --> 00:21:41,680
Dus het zit ook op informeren op zulke dingen.

454
00:21:41,820 --> 00:21:43,840
Want niets is meer wat het lijkt.

455
00:21:43,920 --> 00:21:46,240
Zeker in het generatieve tijdperk.

456
00:21:46,460 --> 00:21:46,920
Om het zo te noemen.

457
00:21:47,800 --> 00:21:48,720
En nog bedankt voor mijn vader.

458
00:21:48,780 --> 00:21:49,700
Luister dat je mee hebt gewerkt.

459
00:21:51,160 --> 00:21:51,660
Het grappige is.

460
00:21:51,900 --> 00:21:53,060
Ik had daarna ook nog een model gemaakt.

461
00:21:53,280 --> 00:21:55,260
Wat realtime in mijn stem dan antwoorden gaf.

462
00:21:55,340 --> 00:21:56,540
Dus ik had een collega die zei van.

463
00:21:56,940 --> 00:21:58,460
Ja maar als je vader dan gaat bellen.

464
00:21:59,420 --> 00:22:00,500
Dan moet je wel opnemen.

465
00:22:00,580 --> 00:22:01,740
En dan herkent hij.

466
00:22:01,880 --> 00:22:03,000
Dan weet hij dat jij het niet bent.

467
00:22:03,180 --> 00:22:04,820
En toen bleek ik van ja, maar dat heb ik ook iets voor bedacht.

468
00:22:05,260 --> 00:22:07,320
Had ik dus een model getraind met mijn eigen stem,

469
00:22:07,420 --> 00:22:08,580
dat ik realtime kon reageren.

470
00:22:08,600 --> 00:22:11,820
Dus toen mijn vader belde, nam mijn en jij stem op.

471
00:22:12,040 --> 00:22:13,860
En die ging dus gewoon met mijn vader converseren.

472
00:22:14,700 --> 00:22:18,200
Toen had hij wel door dat het niet echt was.

473
00:22:19,420 --> 00:22:20,200
Dan even een persoonlijke vraag.

474
00:22:20,320 --> 00:22:21,420
Heb je een codewoord afgesproken?

475
00:22:21,740 --> 00:22:22,040
Jazeker.

476
00:22:22,940 --> 00:22:25,780
Ik wil dat bijna zeggen.

477
00:22:27,120 --> 00:22:28,480
Het is geen ananas of zo.

478
00:22:29,560 --> 00:22:31,120
Ik heb wel een codewoord afgesproken.

479
00:22:31,300 --> 00:22:34,820
Het feit dat ik dat doe, dat zegt ook al iets.

480
00:22:35,060 --> 00:22:35,900
Het is wel nodig.

481
00:22:36,220 --> 00:22:37,060
Het is zeker nodig.

482
00:22:40,080 --> 00:22:43,960
De kracht van AI, daar hebben we het de hele tijd over.

483
00:22:44,080 --> 00:22:47,000
Hoe zetten jullie die zelf binnen de Consumentenbond in?

484
00:22:49,420 --> 00:22:50,420
Op een aantal fronten.

485
00:22:50,980 --> 00:22:52,480
We hebben eerder gezegd dat we een aantal pijlen zijn.

486
00:22:52,660 --> 00:22:54,120
Innovatie met AI, slimme werk met AI.

487
00:22:54,420 --> 00:22:57,980
Ik denk dat we met name het snelst gaan met slimme werk met AI.

488
00:22:58,220 --> 00:22:59,480
Het is een interne proces.

489
00:22:59,680 --> 00:23:01,980
Je kan makkelijk experimenteren en fouten maken.

490
00:23:02,440 --> 00:23:04,600
Zonder dat leden daar direct de dupe van zijn.

491
00:23:06,300 --> 00:23:07,220
We zetten een aantal in.

492
00:23:07,220 --> 00:23:10,140
We hebben GPT, ChatGPT gewoon uitgerold.

493
00:23:10,140 --> 00:23:12,000
En heel de organisatie betekent dat er gewoon...

494
00:23:12,120 --> 00:23:15,180
Heel de organisatie dagelijks gewoon met AI werkt.

495
00:23:15,210 --> 00:23:17,040
Dus daar zit al, vind ik, een enorm winst.

496
00:23:18,440 --> 00:23:19,760
We hebben een groep collega's uitgevraagd.

497
00:23:19,820 --> 00:23:21,660
Er zit nu al ongeveer een besparing van vier uur per week.

498
00:23:22,180 --> 00:23:23,300
Besparing is natuurlijk relatief.

499
00:23:24,000 --> 00:23:25,140
Productiever of minder werkdruk.

500
00:23:26,000 --> 00:23:29,460
We doen heel veel met herkennen en analyseren van klantsignalen.

501
00:23:30,700 --> 00:23:33,080
Dus vanuit de bulk van data, wat zien we daar gebeuren?

502
00:23:33,320 --> 00:23:35,440
En kunnen we daar heel snel patronen uit herkennen?

503
00:23:35,450 --> 00:23:38,540
Want vanuit verschillende hoeken en gaten komen er natuurlijk consumentenfricties binnen.

504
00:23:39,780 --> 00:23:42,380
En in soms een oude situatie, er komt één signaal binnen bij een medewerker.

505
00:23:42,600 --> 00:23:43,460
Eén signaal via social.

506
00:23:44,180 --> 00:23:46,460
En dan lijkt het allemaal los, maar als het allemaal bij elkaar veegt...

507
00:23:46,460 --> 00:23:49,740
dan ontstaan daar gewoon toch wel interessante patronen.

508
00:23:51,120 --> 00:23:54,400
En we zijn gewoon druk bezig om te kijken naar welke zaken we kunnen automatiseren.

509
00:23:54,840 --> 00:23:59,860
Ik had toevallig vorige week een geweldige hackathon gehad met ons Merk team.

510
00:24:00,560 --> 00:24:05,800
Waar we eigenlijk animaties en illustraties die worden gemaakt op de website.

511
00:24:06,060 --> 00:24:07,860
Gewoon zoveel mogelijk met AI proberen te maken.

512
00:24:08,840 --> 00:24:09,960
Deels proberen te automatiseren.

513
00:24:10,040 --> 00:24:10,800
Ik wil dat in bulk doen.

514
00:24:11,520 --> 00:24:13,340
Maar bijvoorbeeld in zo'n typische consumentenbond.

515
00:24:13,420 --> 00:24:15,260
Illustratie, zo'n poppetje die je op je website ziet.

516
00:24:15,780 --> 00:24:17,020
Daar is een ontwerper.

517
00:24:17,140 --> 00:24:19,560
Daar is vaak misschien drie keer of uur mee bezig.

518
00:24:19,720 --> 00:24:24,080
En nu met de juiste processen is dat binnen een minuutje gedaan.

519
00:24:24,160 --> 00:24:26,160
Ja, was je verrast door de uitkomst?

520
00:24:27,080 --> 00:24:28,980
Ik was best wel verrast.

521
00:24:29,210 --> 00:24:31,900
Ja, want het kwam akelig dichtbij.

522
00:24:33,260 --> 00:24:35,500
En wat me nog meer verrast is dat...

523
00:24:35,640 --> 00:24:38,139
Eigenlijk had ik verwacht, zeker met de creatievelingen...

524
00:24:38,680 --> 00:24:40,020
dat ze zullen zeggen van...

525
00:24:40,020 --> 00:24:41,680
ja, je komt aan ons brood.

526
00:24:41,790 --> 00:24:43,760
Dit is creativiteit, kan je niet...

527
00:24:44,100 --> 00:24:45,540
Maar die waren eigenlijk heel enthousiast.

528
00:24:45,700 --> 00:24:46,820
Die omarmd, die zeiden van...

529
00:24:46,820 --> 00:24:48,500
ja, we zijn heel vaak, we hebben het al heel druk.

530
00:24:49,220 --> 00:24:51,120
We worden gevraagd...

531
00:24:51,120 --> 00:24:53,160
kan je even snel een illustratie maken voor een presentatie?

532
00:24:53,200 --> 00:24:55,260
Of hebben nu tien illustraties nodig van wasmachines.

533
00:24:55,360 --> 00:24:56,620
Voor onze wasmachinespagina.

534
00:24:57,560 --> 00:25:00,200
Het kan een soort aanvoelen als een soort van productiewerk.

535
00:25:00,820 --> 00:25:04,040
En als jij daar kan helpen om zulke dingen juist makkelijker te maken.

536
00:25:04,140 --> 00:25:04,880
En te animeren.

537
00:25:05,460 --> 00:25:06,480
Dan hebben zij weer meer tijd over.

538
00:25:06,660 --> 00:25:08,300
Voor de meer complexere dingen.

539
00:25:08,380 --> 00:25:08,980
Die video's.

540
00:25:09,100 --> 00:25:10,660
Of de complexe infographics.

541
00:25:12,620 --> 00:25:14,980
Ik zeg te verbaasd dat het zo akelig dichtbij kwam.

542
00:25:15,460 --> 00:25:15,720
Goed.

543
00:25:15,860 --> 00:25:16,620
En direct bruikbaar.

544
00:25:17,260 --> 00:25:19,300
Maar nog positief verraster was ik ook wel.

545
00:25:19,300 --> 00:25:21,140
Dat zij het ook gewoon zo enthousiast.

546
00:25:21,140 --> 00:25:21,720
Ja wat gaaf.

547
00:25:21,840 --> 00:25:21,980
Ja.

548
00:25:22,820 --> 00:25:27,260
En daartussen speelt er, we hebben echt wel goed ingezet op, vind ik,

549
00:25:27,780 --> 00:25:32,320
dat alle collega's elke dag proberen om generatieve AI te gebruiken in hun werk.

550
00:25:32,400 --> 00:25:33,100
Dus het ZGP team.

551
00:25:33,240 --> 00:25:36,900
Daar zit een enorme versneller, dat de collega's er actief kunnen werken.

552
00:25:36,900 --> 00:25:41,300
En daaromheen proberen inderdaad gewoon de zaken te automatiseren,

553
00:25:41,300 --> 00:25:44,860
te analyseren, klantsignalen voor creatieve doeleinden.

554
00:25:46,820 --> 00:25:49,680
Besteden jullie ook al werk uit aan AI agents?

555
00:25:51,120 --> 00:25:51,640
Ja en nee.

556
00:25:53,340 --> 00:25:56,020
Kijk, wat heel gaaf is, zeker, wij doen heel veel onderzoek.

557
00:25:56,860 --> 00:26:00,860
Maar onderzoek moet natuurlijk wel misschien het hoogste denkbare niveau zijn.

558
00:26:01,220 --> 00:26:03,000
Want ja, ten slotte, we zijn de consumentenbond.

559
00:26:04,380 --> 00:26:07,560
Maar je ziet bijvoorbeeld nu al een paar weken geleden of een paar maanden geleden

560
00:26:07,880 --> 00:26:09,760
deden we ook een onderzoek naar noodradio's.

561
00:26:09,860 --> 00:26:12,120
Want we zagen dat daar enorm een vraag naar was.

562
00:26:12,350 --> 00:26:14,160
Ook al vanuit data-analyses en dergelijke.

563
00:26:14,190 --> 00:26:16,620
Want ja, iedereen dacht, de wereld vergaat met wat er gebeurt.

564
00:26:17,700 --> 00:26:18,060
Noodradio's.

565
00:26:18,760 --> 00:26:21,580
En dan zie je bijvoorbeeld dat de marktverkenners ook AI-agents aan het werk zetten.

566
00:26:21,700 --> 00:26:24,840
om gewoon heel snel heel veel informatie op te laten zoeken.

567
00:26:25,000 --> 00:26:26,820
Dus die sturen gewoon een agent eruit.

568
00:26:26,940 --> 00:26:31,340
En dat is nu even de deep research agent van bijvoorbeeld ChatGPT.

569
00:26:32,440 --> 00:26:34,040
En gewoon zeggen, doe gewoon een marktonderzoek,

570
00:26:34,240 --> 00:26:37,220
marktverkenning naar alles rondom noodradio's, kenmerken,

571
00:26:37,400 --> 00:26:39,220
wat vinden consumenten belangrijk, marktdekking.

572
00:26:39,860 --> 00:26:43,120
Nou ja, dan komt gewoon een rapport terug van 15 pagina's met bronnen.

573
00:26:43,180 --> 00:26:46,460
En dan is het uiteindelijk aan de marktverkenner om daar natuurlijk te filteren van,

574
00:26:47,420 --> 00:26:48,840
ja, wat is eigenlijk gewoon een bullshit bron?

575
00:26:49,140 --> 00:26:51,000
Daar heb ik niks aan en wat is legitiem?

576
00:26:52,000 --> 00:26:57,860
Dus ik zie zeker met marktonderzoek dat dat in alle fronten ons heel erg helpt.

577
00:26:59,300 --> 00:26:59,540
Mooi.

578
00:26:59,870 --> 00:27:02,540
Ja, een stukje marktverkenning gaat goed en alles daartussenin natuurlijk.

579
00:27:03,280 --> 00:27:06,960
Zijn er ook situaties waar je zegt, maar daar gaan we gewoon echt geen agents voor inzetten?

580
00:27:07,900 --> 00:27:11,620
Nou, ik denk dat uiteindelijk gaat als het gaat om alles wat je op onze website ziet,

581
00:27:12,700 --> 00:27:13,480
conclusies die betrekken.

582
00:27:13,530 --> 00:27:17,340
Ik denk dat, en dat zou jullie ook al vaker gezegd hebben in de aflevering,

583
00:27:18,240 --> 00:27:20,660
het kan je perfect helpen ondersteunen, maar tot een bepaald punt.

584
00:27:20,900 --> 00:27:25,560
Ik denk die human in the loop van uiteindelijk is al de data geagreerd of geanalyseerd.

585
00:27:25,620 --> 00:27:30,220
Uiteindelijk is er altijd automatisch een testresultaat online zetten van A tot Z.

586
00:27:30,380 --> 00:27:31,540
Dat gaat nooit gebeuren.

587
00:27:31,560 --> 00:27:41,100
Want we vinden gewoon dat die expert die gewoon wasmachines, drogers of traphekjes kan dromen 's nachts.

588
00:27:42,280 --> 00:27:46,200
Dat zal uiteindelijk altijd de persoon zijn die op een knopdruk de data checkt.

589
00:27:46,300 --> 00:27:49,540
Dus we zullen denk ik nooit tot en met A tot Z dit kunnen automatiseren.

590
00:27:49,540 --> 00:27:50,240
Dat wil je ook niet.

591
00:27:52,140 --> 00:27:55,300
Ik ben geen vader, maar als ik vader zijn en ik zal een traphekje zoeken,

592
00:27:56,330 --> 00:28:00,220
dan zou ik toch zeggen, ik zou het toch wel fijn vinden dat de expert bij de consumentenbond,

593
00:28:01,210 --> 00:28:03,980
die alles weet van traphekjes, zelf de data heeft bekeken,

594
00:28:04,110 --> 00:28:06,320
misschien zelf naar zo'n testlab is gegaan om te kijken of het goed gaat,

595
00:28:07,000 --> 00:28:10,200
zegt van dit is het beste traphekje en niet dat je de volgende ochtend binnenkomt

596
00:28:10,220 --> 00:28:12,680
en je kind ligt in de kreukel of onderaan de trouw.

597
00:28:13,040 --> 00:28:18,060
Dus ik denk dat dat laatste stukje is denk ik ook al ons goud.

598
00:28:18,220 --> 00:28:20,160
En daar moet je ook gewoon niet aan komen, denk ik.

599
00:28:20,240 --> 00:28:21,900
Ja, echt een domijnexpert.

600
00:28:21,930 --> 00:28:23,640
En ik vind het wel belangrijk om die test te zien.

601
00:28:23,970 --> 00:28:26,000
Dat je niet je kind ineens beneden ziet.

602
00:28:26,540 --> 00:28:28,940
Dat is wat je zeker wil voorkomen.

603
00:28:29,520 --> 00:28:32,220
En dat de goede prijs-kwaliteit verhouding daarop zit.

604
00:28:34,500 --> 00:28:36,440
En mocht er wel een ongelukje gebeuren.

605
00:28:37,280 --> 00:28:39,040
Dan kom je met de zorg in aanraking.

606
00:28:40,140 --> 00:28:42,440
Je zocht heel subtiel.

607
00:28:43,800 --> 00:28:46,080
We hebben het kaartspel met stellingen.

608
00:28:46,270 --> 00:28:47,820
Om met elkaar te discussiëren.

609
00:28:48,260 --> 00:28:52,800
Juist met verschillende perspectieven kijken naar zaken.

610
00:28:52,980 --> 00:28:57,320
En dan hebben we samen met het ETHZ en Elisabeth Tweestedenziekenhuis, zijn voorlopers op het gebied van AI,

611
00:28:57,580 --> 00:29:03,540
hebben we een kaartspel ontwikkeld met stellingen over de zorg waar iedereen mee te maken krijgt.

612
00:29:17,860 --> 00:29:19,160
Ja, normaal gesproken ben ik nu aan het schudden.

613
00:29:19,670 --> 00:29:20,700
Maar dat heb ik nu digitaal gedaan.

614
00:29:21,680 --> 00:29:25,760
Maar ik ga toch nog even vragen of je een nummer tussen de 0 en 39 wil noemen.

615
00:29:26,300 --> 00:29:28,000
En dan haal ik de stelling eruit.

616
00:29:28,160 --> 00:29:28,860
Doe maar 39.

617
00:29:30,720 --> 00:29:34,060
Zowel vaak mensen die dan bijna het technologische nummer zijn.

618
00:29:35,860 --> 00:29:37,680
Oké, het thema is als volgt.

619
00:29:37,940 --> 00:29:39,080
Wetgeving en beleid.

620
00:29:40,460 --> 00:29:45,160
Als AI niet uitlegbaar is, mag het niet ingezet worden in de zorg.

621
00:29:45,760 --> 00:29:46,120
Klopt het.

622
00:29:46,430 --> 00:29:47,080
Dat ben ik helemaal mee eens.

623
00:29:48,800 --> 00:29:52,020
Dat betekent dat we op dit moment taalmodellen dus niet kunnen inzetten.

624
00:29:53,480 --> 00:29:55,820
Ja, en dat is natuurlijk het lastige van taalmodellen.

625
00:29:56,640 --> 00:30:00,240
Er zit een black box in.

626
00:30:00,420 --> 00:30:01,360
Er gebeuren dingen.

627
00:30:02,520 --> 00:30:03,980
Het is natuurlijk afhankelijk van waarvoor het gebruikt.

628
00:30:03,980 --> 00:30:07,400
Maar ik denk dat het wel belangrijk is dat je kan verklaren wat er gebeurt.

629
00:30:07,500 --> 00:30:10,400
Dat je kan traceren welke besluiten zijn genomen.

630
00:30:11,060 --> 00:30:15,640
Ik denk wel, en het is natuurlijk een stelling om dingen een beetje zwartwit te doen.

631
00:30:16,240 --> 00:30:17,680
Ik zeg hier op brute idee.

632
00:30:18,800 --> 00:30:22,180
Maar als er altijd natuurlijk daarachter een specialist is.

633
00:30:22,210 --> 00:30:25,020
Die de data natuurlijk de uitkomsten van analyseert.

634
00:30:25,120 --> 00:30:28,540
En uiteindelijk een arts is die daar een afweging in besluiten neemt.

635
00:30:28,540 --> 00:30:30,520
Dan kan dat natuurlijk heel erg helpen.

636
00:30:31,340 --> 00:30:33,180
Dus die twee kunnen wel hand in hand kunnen gaan.

637
00:30:33,180 --> 00:30:35,720
Maar je moet altijd wel richting de verklaarbaarheid gaan.

638
00:30:35,940 --> 00:30:36,460
Wat gebeurt er?

639
00:30:37,220 --> 00:30:38,640
Ik vind het wel lastig om een voorbeeld te geven.

640
00:30:39,000 --> 00:30:39,880
Ik had het met nieuws erover.

641
00:30:40,900 --> 00:30:41,660
We gaan niet extra.

642
00:30:41,820 --> 00:30:43,280
Het is niet eens heel erg off topic.

643
00:30:43,980 --> 00:30:46,740
Ik klooi er thuis natuurlijk vaak met lokale LLMs.

644
00:30:46,920 --> 00:30:52,080
Ik heb thuis natuurlijk ook een Gemma model wat medisch gefinetuned is.

645
00:30:53,000 --> 00:30:56,340
Ik heb ook voor de gein een MRI die van mijn rugjes gemaakt gewoon doorheen geknald.

646
00:30:56,420 --> 00:31:05,020
Dan denk ik van ja, komt de LLM op dezelfde uitkomsten als mijn radioloog of de neurochirurg op dat heeft gedaan?

647
00:31:05,180 --> 00:31:06,980
Ja, waren wel dezelfde uitkomsten.

648
00:31:06,990 --> 00:31:09,240
Dus dat vond ik wel bijzonder.

649
00:31:10,400 --> 00:31:14,160
Betekent niet dat alle radiologen en neurologen nu geen toekomst meer hebben.

650
00:31:14,220 --> 00:31:19,100
Want die zijn gewoon noodzakelijk om de uitkomsten van zo'n LLM te duiden.

651
00:31:20,960 --> 00:31:23,600
En ja, dat is voor mij de ultieme human in de loop.

652
00:31:24,240 --> 00:31:26,000
Dus ja, je mag geen mwoah zeggen.

653
00:31:26,719 --> 00:31:28,480
Ja, en dan een gesprek.

654
00:31:29,540 --> 00:31:31,020
Dat is de waarde inderdaad.

655
00:31:31,500 --> 00:31:32,720
Maar als ik de vraag terug mag leggen.

656
00:31:32,800 --> 00:31:36,100
Want je zegt, dan mogen LLMs eigenlijk niet gebruikt worden.

657
00:31:36,240 --> 00:31:40,320
Want is het natuurlijk een mate van lastig herleidbaar erin wat er wordt gedaan.

658
00:31:40,410 --> 00:31:41,100
Hoe zie jij dat dan?

659
00:31:42,400 --> 00:31:47,340
Dat je in ieder geval heel goed moet kijken voor welke situaties je wat inzet.

660
00:31:47,510 --> 00:31:54,000
Dus ik kan me heel goed voorstellen dat je samenvattingen maakt van gesprekken die je voert met je arts.

661
00:31:54,940 --> 00:31:59,260
Dat dat namelijk misschien zelfs wel kwalitatief betere resultaten oplevert.

662
00:31:59,800 --> 00:32:03,960
Dan wat ze nu heel snel proberen te typen als ze met jou aan het praten zijn.

663
00:32:04,420 --> 00:32:06,740
Zou het misschien veel fijner zijn dat dat wordt opgenomen.

664
00:32:07,280 --> 00:32:11,320
Dat er ook echt alle aandacht naar mij als patiënt gaat.

665
00:32:12,740 --> 00:32:15,760
Dus ik denk dat het daar absoluut handig voor is.

666
00:32:15,790 --> 00:32:21,480
Als je het hebt over dat er acties moeten worden ondernomen op basis van een AI-model.

667
00:32:21,980 --> 00:32:23,640
Dan is verklaarbaarheid denk ik heel belangrijk.

668
00:32:24,720 --> 00:32:29,040
Want dan moet je weten wat de onderliggende redenatie is.

669
00:32:29,180 --> 00:32:30,440
Waarom er een bepaalde uitkomst is.

670
00:32:30,700 --> 00:32:32,100
En om daarop aan te haken.

671
00:32:32,240 --> 00:32:37,140
Ik denk, als ik naar mijn huisarts ga en ik vertel daar een half uur mijn verhaal.

672
00:32:37,240 --> 00:32:38,980
Meestal moet het binnen twaalf minuten gebeuren.

673
00:32:41,380 --> 00:32:43,140
Dan ben je erom met die transparantie.

674
00:32:43,590 --> 00:32:47,620
Het is ook wel van dat je als patiënt weet van we maken hier een gespreksverslag.

675
00:32:47,650 --> 00:32:49,800
En dat wordt uiteraard samengevat voor de EPD.

676
00:32:50,820 --> 00:32:52,400
Dan kan ik ieder geval bewust nog keuze maken.

677
00:32:52,480 --> 00:32:53,680
Ik wil dat je dat wel doet of niet.

678
00:32:53,730 --> 00:32:56,180
Ik wil dat je nu oldschool op je toetsbord gaat rammen.

679
00:32:57,240 --> 00:33:03,160
Dus ik vind misschien dat als patiënt dat je daar misschien ook al iets van zou kunnen mogen vinden.

680
00:33:03,300 --> 00:33:04,500
In ieder geval weten dat het gebeurt.

681
00:33:05,080 --> 00:33:07,000
Het leuke is, die discussie hebben we gehad.

682
00:33:08,060 --> 00:33:10,980
Binnen de groep dat we dit kaartspel aan het ontwikkelen waren.

683
00:33:12,160 --> 00:33:13,580
Zij waren daar falicant op tegen.

684
00:33:14,240 --> 00:33:15,500
Dat je daar keuze in hebt.

685
00:33:15,740 --> 00:33:16,820
En ik kan me er wel wat bij voorstellen.

686
00:33:16,960 --> 00:33:18,860
Want nu ga je namelijk ook niet zeggen van.

687
00:33:19,500 --> 00:33:22,340
Ja, maar wat we nu gaan bespreken moet jij op papier gaan uitwerken.

688
00:33:23,500 --> 00:33:26,280
Want nou kom je eigenlijk aan de tools van de arts.

689
00:33:26,940 --> 00:33:30,380
Of wat we nu gaan zeggen, gaat niet het EPD in.

690
00:33:31,360 --> 00:33:33,640
Die keuzes heb je niet.

691
00:33:34,010 --> 00:33:39,900
Dus dan moet je wel de professional laten werken met de tools die hij heeft.

692
00:33:41,060 --> 00:33:44,060
Anders krijgen we de cookie banner bij de art.

693
00:33:45,660 --> 00:33:47,700
Per patiënt is het anders natuurlijk hoe hij het aanpakt.

694
00:33:48,620 --> 00:33:49,920
Ik snap wel waar je vandaan komt.

695
00:33:50,300 --> 00:33:52,860
Alleen gebeurt het zorgvuldig.

696
00:33:53,280 --> 00:33:57,880
Gaat je medische samenvatting hoe persoonlijk of gênant het kan zijn.

697
00:33:59,060 --> 00:34:02,060
Via een OPI-key ergens op de Amerikaanse service.

698
00:34:02,880 --> 00:34:04,600
Dus dat moet wel veilig en veranderd gebeuren.

699
00:34:04,680 --> 00:34:05,240
Zeker, uiteraard.

700
00:34:05,240 --> 00:34:06,940
Ik kan me heel goed voorstellen dat het voor een arts wel vervelend is.

701
00:34:07,000 --> 00:34:09,400
Als je tien patiënten op de dag krijgt.

702
00:34:09,520 --> 00:34:12,280
En alle tien hebben andere wensen hoe het wordt gedaan.

703
00:34:13,460 --> 00:34:15,139
Dat je als organisatie bewust moet zijn.

704
00:34:15,159 --> 00:34:16,860
Hoe gaan we het wel of niet ondersteunen?

705
00:34:17,420 --> 00:34:20,120
Er zijn hele goede initiatieven met lokale modellen.

706
00:34:20,300 --> 00:34:22,780
Met specifiek getraind op doktersgesprekken.

707
00:34:22,800 --> 00:34:24,280
en dat soort zaken.

708
00:34:25,400 --> 00:34:26,860
Om de vakjargon, want inderdaad,

709
00:34:27,020 --> 00:34:28,239
als die op het toetsenbord moet gaan rammen,

710
00:34:28,739 --> 00:34:30,380
volgens mij zijn dat allemaal codes en allemaal

711
00:34:31,020 --> 00:34:32,739
zaken die je niet zo eens als

712
00:34:32,920 --> 00:34:33,760
leek zou kunnen begrijpen.

713
00:34:34,460 --> 00:34:35,400
Waar het wel bij kan helpen.

714
00:34:35,820 --> 00:34:38,020
En ik zie wel zelf heel veel waarden, en die onderzoeken

715
00:34:38,040 --> 00:34:39,839
zijn ook gedaan. Zeker nu dat

716
00:34:40,260 --> 00:34:41,659
lokale modellen steeds sterker worden,

717
00:34:41,940 --> 00:34:43,980
daar zit daar een stukje meer beveiliging, controle

718
00:34:44,359 --> 00:34:45,960
op, dus daar heb je denk ik veel meer mogelijkheden

719
00:34:45,960 --> 00:34:47,920
om daar ook generatieve AI toe te passen.

720
00:34:48,559 --> 00:34:50,059
Maar ik zie natuurlijk al een enorme winst als het gaat

721
00:34:50,260 --> 00:34:52,380
om de diagnose van ziektes.

722
00:34:54,018 --> 00:34:55,040
Proteinontwikkeling, noem maar op.

723
00:34:56,099 --> 00:34:58,760
Dus daar heeft generatieve ai natuurlijk veel impact.

724
00:35:00,199 --> 00:35:03,960
Het feit dat ik in mijn hok een soort hernia-diagnose kan doen.

725
00:35:04,480 --> 00:35:05,579
Met lokale LLM.

726
00:35:05,589 --> 00:35:06,980
Als je dat mij vier jaar geleden had gevraagd.

727
00:35:07,079 --> 00:35:09,140
Dan dacht ik van, dat kan dus nooit.

728
00:35:09,250 --> 00:35:10,040
Maar dat kan dus wel.

729
00:35:10,200 --> 00:35:10,720
Geweldig hè?

730
00:35:11,440 --> 00:35:12,160
Bijzonder hoe snel het gaat.

731
00:35:12,660 --> 00:35:16,460
Er komen natuurlijk allerlei ethische overwegingen aan te pas.

732
00:35:17,220 --> 00:35:19,420
Hoe maken jullie die binnen je organisatie?

733
00:35:21,460 --> 00:35:23,000
Nou ja, ik denk dat...

734
00:35:24,800 --> 00:35:26,440
Waar wij heel snel hebben...

735
00:35:26,760 --> 00:35:27,620
Sommige dingen zijn heel duidelijk.

736
00:35:27,720 --> 00:35:28,760
Dingen die we gewoon wel of niet hebben.

737
00:35:28,819 --> 00:35:31,240
Dus we hebben wel een ethisch kader met op hoog over...

738
00:35:31,240 --> 00:35:32,480
Dit willen we wel zijn, dit willen we niet zijn.

739
00:35:32,540 --> 00:35:33,380
Dit doen we wel, dit doen we niet.

740
00:35:33,720 --> 00:35:35,740
Maar daarbinnen zitten natuurlijk heel veel grijs tinten.

741
00:35:36,220 --> 00:35:37,580
Je moet heel vaak besluiten nemen.

742
00:35:38,280 --> 00:35:40,920
Dus wat wij vanuit de AI-strategie hebben gedaan...

743
00:35:40,920 --> 00:35:44,240
is dat wij heel snel hebben ingezet op een aantal belangrijke rollen.

744
00:35:44,420 --> 00:35:46,300
Dus we hebben een AI-compliance officer.

745
00:35:46,640 --> 00:35:47,520
We hebben natuurlijk een privacy officer.

746
00:35:47,780 --> 00:35:49,920
We hebben AI-governance professional en ik.

747
00:35:50,940 --> 00:35:54,620
Dus als er bijvoorbeeld ook bepaalde afwegingen zijn van doen we dit wel of doen we dit niet?

748
00:35:55,080 --> 00:35:57,160
Willen we dit wel, willen we dit niet? En wat zijn de implicaties?

749
00:35:57,660 --> 00:35:58,860
Dan hoef ik dat niet alleen te doen.

750
00:35:59,040 --> 00:36:03,640
Of dan heb je ook gewoon vier rollen die geschoold zijn en jij.

751
00:36:03,980 --> 00:36:08,460
Weten wat de impact is en kunnen daar dan ook gewoon de afwegingen maken van dit willen we gewoon niet.

752
00:36:08,560 --> 00:36:14,460
Dus ik zag me ook wel een beetje aankomen van er komen een aantal keuzes die we in de toekomst moeten gaan maken.

753
00:36:15,480 --> 00:36:19,760
En dan hebben we nu ook gewoon vier rollen vanuit compliance, governance, strategie.

754
00:36:20,900 --> 00:36:21,800
En bijvoorbeeld een privacy officer.

755
00:36:22,260 --> 00:36:24,240
Die bij elkaar, gewoon met elkaar dat kunnen bespreken.

756
00:36:24,240 --> 00:36:27,200
Want soms zijn er best wel lastige gesprekken die je moet hebben.

757
00:36:27,220 --> 00:36:28,920
En soms moet je de keuze ook gewoon niet alleen maken.

758
00:36:28,960 --> 00:36:30,880
Die maak je dan gewoon met vier experts.

759
00:36:32,280 --> 00:36:34,360
Dus dat adviseer ik eigenlijk alle bedrijven.

760
00:36:34,480 --> 00:36:37,000
Zet gewoon in op een compliance officer of een governance professional.

761
00:36:38,120 --> 00:36:40,500
Want dan kan je het vanuit verschillende hoeken belichten.

762
00:36:42,120 --> 00:36:44,000
En als dan zo'n keuze gemaakt is.

763
00:36:44,440 --> 00:36:45,540
Dan leggen jullie die vast.

764
00:36:46,270 --> 00:36:47,880
Daar kunnen jullie later op terugkomen.

765
00:36:48,000 --> 00:36:49,600
Want de wereld verandert natuurlijk nogal vaak.

766
00:36:49,850 --> 00:36:50,700
Dus hoe pakken jullie dat aan?

767
00:36:52,679 --> 00:36:54,560
Gewoon traceerbaarheid aan welke besluiten we hebben genomen.

768
00:36:54,780 --> 00:36:57,840
Of ja, dat is misschien interessant.

769
00:36:58,020 --> 00:36:59,580
Dit is een vibecode projectje geworden.

770
00:37:01,180 --> 00:37:03,080
Het is geen bruggetje dit voor de mensen thuis.

771
00:37:03,240 --> 00:37:04,920
Dus nieuws en nieuws kijk ik niet aan.

772
00:37:05,840 --> 00:37:06,480
Koppen maar in.

773
00:37:07,880 --> 00:37:10,980
Wat interessant is, waar ik zelf naar mijn rol ook mee borstelde.

774
00:37:11,160 --> 00:37:16,180
Dus natuurlijk met, ik heb het al gehad natuurlijk, de AI-compliance, AI geletterheid.

775
00:37:16,800 --> 00:37:19,760
Het vraagt enorm veel van organisaties om dingen vast te leggen.

776
00:37:19,860 --> 00:37:23,400
Welk systeem heb je? Wie gebruikt het? Is die persoon geletterd genoeg?

777
00:37:24,620 --> 00:37:25,720
Moet er follow-up gebeuren?

778
00:37:26,360 --> 00:37:28,980
Dat hield ik eerst in Excel'tjes bij ook welke besluiten we hebben genomen.

779
00:37:29,520 --> 00:37:32,260
Dus we hebben onze afgelopen innovatieweek met developers,

780
00:37:32,750 --> 00:37:38,720
heb ik samen met twee, drie developers, een soort AI-compliance CRM-systeem gevibecode.

781
00:37:38,840 --> 00:37:40,660
Ik wil hen laten checken of het allemaal goed werkt.

782
00:37:40,940 --> 00:37:42,600
Dat draait nu gewoon bij ons lokaal.

783
00:37:43,170 --> 00:37:46,040
Waar we eigenlijk alle systemen in hebben staan.

784
00:37:46,280 --> 00:37:48,520
Ook risicoclassificatie, wie het gebruikt.

785
00:37:48,520 --> 00:37:50,780
Of de mensen getraind zijn of onvoldoende getraind zijn.

786
00:37:51,440 --> 00:37:53,920
En waar we dus ook bepaalde besluiten vastleggen.

787
00:37:54,860 --> 00:37:55,780
Dit hebben we besloten.

788
00:37:55,790 --> 00:38:03,100
En toen, stel voor dat een auditorganisatie of een AP binnenkomt lopen.

789
00:38:03,220 --> 00:38:05,400
En die zegt, laat zien welke systemen je hebt.

790
00:38:05,640 --> 00:38:07,020
En wie het gebruikt, wie gelift het is.

791
00:38:07,070 --> 00:38:08,320
En meer versluit, wat heb je gedaan?

792
00:38:08,900 --> 00:38:10,860
Dan hoeven we nu eigenlijk alleen maar op export te klikken.

793
00:38:10,890 --> 00:38:12,180
En dan komt het pdfje uit te rollen.

794
00:38:12,480 --> 00:38:13,000
Wauw, cool.

795
00:38:13,620 --> 00:38:15,980
En dat is helemaal Vibercode tot stand gekomen.

796
00:38:16,080 --> 00:38:20,520
Want de laatste innovatieweek die we hadden met onze developers.

797
00:38:21,480 --> 00:38:22,840
We mogen dan een aantal dingen pitchen.

798
00:38:24,260 --> 00:38:24,660
Vanuit de business.

799
00:38:24,730 --> 00:38:25,620
Het is een feestje voor developers.

800
00:38:26,399 --> 00:38:28,660
Wij mogen bij hun op audiëntie komen en zeggen.

801
00:38:28,820 --> 00:38:29,320
Wij hebben een idee.

802
00:38:30,560 --> 00:38:30,860
Help mij.

803
00:38:31,460 --> 00:38:32,540
En dan heb ik met drie andere developers.

804
00:38:32,960 --> 00:38:35,420
Hebben we allemaal onze eigen Vibercode approach gedaan.

805
00:38:36,720 --> 00:38:39,260
Ik denk dat de mensen luisteren wel en weten wat vibecode is, hoop ik.

806
00:38:40,620 --> 00:38:42,920
En we hebben eigenlijk allemaal onze eigen platform gekozen.

807
00:38:42,930 --> 00:38:45,840
En we hebben los van elkaar gewoon CRM gevibecode.

808
00:38:45,890 --> 00:38:49,360
En het interessante was dat ik aan het eind van de rit, omdat ik al heel veel vibecode,

809
00:38:49,800 --> 00:38:55,400
echt een volledig werkend front-end, back-end, beslissstoel, chatbot erin had zitten.

810
00:38:55,660 --> 00:38:57,580
En de developers waren nog een beetje zoekende.

811
00:38:57,690 --> 00:39:02,580
Want die zeiden van ja, we programmeren wel, maar dat vibecode voelt toch een beetje onnatuurlijk.

812
00:39:02,740 --> 00:39:04,060
Wat gebeurt er nou eigenlijk onder water?

813
00:39:05,080 --> 00:39:06,000
Ik kan dat niet uitleggen.

814
00:39:06,160 --> 00:39:06,720
developers wel.

815
00:39:08,920 --> 00:39:10,140
U overwogen om het open source

816
00:39:10,160 --> 00:39:11,720
te maken? Daar heb ik het eigenlijk over gehad.

817
00:39:12,519 --> 00:39:13,160
Ja, serieus.

818
00:39:15,380 --> 00:39:16,080
Daar heb ik

819
00:39:16,220 --> 00:39:16,320
met

820
00:39:18,460 --> 00:39:19,860
een van de developers ook gezegd,

821
00:39:20,299 --> 00:39:22,140
dit werkt eigenlijk best oké. Het is nog niet af.

822
00:39:22,260 --> 00:39:24,120
Het werkt voor mij. Het is ook gemoedsrust.

823
00:39:24,220 --> 00:39:26,260
Als morgen iemand iets vraagt, dan heb ik het paraat.

824
00:39:26,800 --> 00:39:27,680
Maar het is eigenlijk best wel

825
00:39:28,600 --> 00:39:30,240
een los denk ik ook wel

826
00:39:30,960 --> 00:39:32,180
een soort spanning op die heel veel

827
00:39:32,340 --> 00:39:34,279
bedrijven hebben. Hoe leg ik dat nou

828
00:39:34,300 --> 00:39:36,280
vast. Ja, en ik kan nu gewoon zien,

829
00:39:36,420 --> 00:39:37,920
ja, we hebben zoveel gebruikers met ChatGPT,

830
00:39:38,060 --> 00:39:39,880
nou, deze vijf hebben nog niet een verplichte

831
00:39:40,160 --> 00:39:42,080
basistraining gevolgd. Nou ja, dan krijg ik gewoon een reminder.

832
00:39:42,840 --> 00:39:44,120
Let op, die vier moet je wel even trainen,

833
00:39:44,260 --> 00:39:45,160
want anders ben je niet compliant.

834
00:39:45,440 --> 00:39:48,160
Ja, heel handig. Ja. Dus misschien

835
00:39:48,300 --> 00:39:50,260
is dat dan een zo gek idee, we hebben er wel over nagedacht.

836
00:39:50,560 --> 00:39:51,340
Leuk. Zet maar aan het denken.

837
00:39:53,040 --> 00:39:53,940
Dus u weet binnenkort.

838
00:39:54,640 --> 00:39:55,480
Ja, maar het zijn wel de dingen die

839
00:39:56,340 --> 00:39:58,060
nu wel gewoon spelen. Heel veel bedrijven

840
00:39:59,100 --> 00:40:00,220
organisaties worstelen gewoon van, ja,

841
00:40:00,440 --> 00:40:01,920
dus een AI-act, compliance,

842
00:40:02,480 --> 00:40:02,800
geletterdheid,

843
00:40:05,200 --> 00:40:06,600
Hoe ga ik daarmee om? Hoe leg ik het vast?

844
00:40:06,760 --> 00:40:09,340
Hoe moon ik het wordt? Hoe leg ik het besluit vast?

845
00:40:09,540 --> 00:40:11,240
Dus dat is eigenlijk een zicht idee. Dankjewel.

846
00:40:12,039 --> 00:40:15,120
Ja, heel graag. Ik krijg graag een seintje als het zover is.

847
00:40:16,140 --> 00:40:17,440
Je wil wel meebouwen, dat kan ook.

848
00:40:17,910 --> 00:40:22,740
Ja, maar juist met de open source is dat natuurlijk wel inderdaad het hele idee.

849
00:40:23,100 --> 00:40:25,200
Dat mensen kunnen meebouwen, mee kunnen denken.

850
00:40:26,040 --> 00:40:27,160
Het zou wel heel interessant zijn.

851
00:40:28,219 --> 00:40:31,220
Want uiteindelijk hierbinnen zijn we ook bezig met vastlegging.

852
00:40:31,540 --> 00:40:34,060
En doen we dat in huidige systemen.

853
00:40:34,180 --> 00:40:35,620
Maar wat je natuurlijk heel snel gaat krijgen.

854
00:40:35,760 --> 00:40:37,200
Is dat dat versplinterd weer raakt.

855
00:40:37,680 --> 00:40:38,860
Dus als er dan een audit komt.

856
00:40:39,160 --> 00:40:41,200
Moeten wij overal en nergens dat vandaan halen.

857
00:40:41,640 --> 00:40:42,400
Het ligt wel vast.

858
00:40:43,860 --> 00:40:44,820
Maar het is wel een balletje van.

859
00:40:44,980 --> 00:40:45,460
Heb je even.

860
00:40:45,700 --> 00:40:48,560
We moeten nu gewoon zes doos opentrekken.

861
00:40:48,640 --> 00:40:48,880
Precies.

862
00:40:49,240 --> 00:40:49,880
Tien excelletjes.

863
00:40:51,300 --> 00:40:53,480
Dus als het dan in één CRM zou kunnen.

864
00:40:53,600 --> 00:40:54,320
Het zou geweldig zijn.

865
00:40:54,460 --> 00:40:55,120
Het zou hartstikke mooi zijn.

866
00:40:55,520 --> 00:40:59,320
Het meest ideaal is dat je daar nog een aparte tap aan toevoegt.

867
00:40:59,420 --> 00:41:01,100
Natuurlijk met een aantal video's.

868
00:41:01,320 --> 00:41:05,400
Nu geven collega's bij ons vaak nog de training basisgeletterdheid AI.

869
00:41:05,510 --> 00:41:09,480
Maar je kan ook een soort ecosysteem ontwikkelen waar je de video's bekijkt.

870
00:41:09,480 --> 00:41:14,980
En op het moment dat iemand een video bekeken heeft, dat je dan ook automatisch een vinkje, een toetsje doet.

871
00:41:15,190 --> 00:41:16,920
En je bent nu basisAI geletterd.

872
00:41:17,140 --> 00:41:17,320
Precies.

873
00:41:18,320 --> 00:41:21,140
En continu blijven leren, de ontwikkelingen gaan verder.

874
00:41:21,190 --> 00:41:26,880
Dat je dat ook fatsoenlijk kan monitoren en mensen weer even bewust kan maken door het licht te nudgen.

875
00:41:27,160 --> 00:41:27,980
Om maar even zo te zeggen.

876
00:41:28,920 --> 00:41:31,000
Ja, je hebt het gevolgd, maar er is alweer veel veranderd.

877
00:41:31,540 --> 00:41:33,260
zorg dat je hier even naar kijkt.

878
00:41:33,680 --> 00:41:35,400
Net zoals we al jaren doen met security

879
00:41:35,600 --> 00:41:37,400
trainingen. Mag er geen mensen

880
00:41:37,520 --> 00:41:38,860
zomaar met een pad mee binnenlopen.

881
00:41:39,580 --> 00:41:41,260
Mag je ook niet zomaar je AI agent

882
00:41:41,260 --> 00:41:43,260
mee naar binnenlopen. Dus dat je daar dus inderdaad

883
00:41:43,400 --> 00:41:43,840
rekening mee hebt.

884
00:41:44,840 --> 00:41:46,620
Bring your own AI to work.

885
00:41:47,500 --> 00:41:48,140
Dat zagen we.

886
00:41:48,280 --> 00:41:49,100
Bring your agent to work.

887
00:41:50,320 --> 00:41:51,520
Het helpt denk ik ook

888
00:41:51,880 --> 00:41:52,440
in breed zin.

889
00:41:54,260 --> 00:41:55,640
Als ik terugkijk even naar de

890
00:41:55,700 --> 00:41:57,220
afgelopen jaren dat we een implementatie hebben gedaan.

891
00:41:58,320 --> 00:41:59,860
Als ik mezelf een les mag geven is dat

892
00:42:00,539 --> 00:42:02,580
wel, jullie zitten in de materie,

893
00:42:02,680 --> 00:42:04,420
ik zit in de materie, ik ben heel enthousiast erover.

894
00:42:05,260 --> 00:42:06,500
Ook al de kansen en gevaren,

895
00:42:06,600 --> 00:42:08,360
maar dat ik me soms toch altijd vaak

896
00:42:08,370 --> 00:42:10,380
op betrapte van, ja, het feit dat

897
00:42:10,480 --> 00:42:12,500
ik zo enthousiast ben, of dat ik er zoveel van weet,

898
00:42:12,660 --> 00:42:14,000
betekent niet dat...

899
00:42:14,590 --> 00:42:16,540
Ja, je trainen gaat aan heel veel mensen gewoon voorbij.

900
00:42:16,760 --> 00:42:17,880
Dus ik kom ook echt onder de conclusie van,

901
00:42:18,440 --> 00:42:20,100
ik leef soms ook een beetje met oogkleppen op, want

902
00:42:20,480 --> 00:42:21,620
ik ga ervan uit dat heel veel mensen

903
00:42:22,210 --> 00:42:23,980
dit ook wel zien, dat dit heel disruptief is.

904
00:42:24,100 --> 00:42:26,440
Maar ja, ook dat er ook nog een collega's waren die nog nooit

905
00:42:27,539 --> 00:42:28,260
ChatGPT of een

906
00:42:29,200 --> 00:42:29,760
hebben opengeklikt.

907
00:42:29,820 --> 00:42:32,500
En juist voor zulke mensen moet je heel veel aandacht hebben.

908
00:42:33,160 --> 00:42:34,600
Om de geletterdheid omhoog te krijgen.

909
00:42:34,720 --> 00:42:37,920
Want dat zijn vaak ook de collega's die misschien onbedoeld denken van...

910
00:42:37,920 --> 00:42:38,480
Oh, handig tool.

911
00:42:39,799 --> 00:42:43,100
Ik gooi op z'n Rotterdams, ik per heel veel bedrijfsstrategie erin.

912
00:42:43,740 --> 00:42:44,700
Ja, dat is niet de bedoeling.

913
00:42:44,850 --> 00:42:47,420
Dus daarom hebben we juist daar geletterdheid heel erg ingezet.

914
00:42:47,480 --> 00:42:48,280
Heel veel basistrainingen.

915
00:42:48,480 --> 00:42:50,420
Ja, we zien wel steeds weer in de media natuurlijk komen.

916
00:42:50,520 --> 00:42:54,500
Maar dat zijn vaak of de droomscenario's of de doomscenario's die we daar tegenkomen.

917
00:42:54,580 --> 00:42:56,440
Maar het realistische verhaal, dat komt niet vaak in de media.

918
00:42:56,630 --> 00:42:58,780
Nee, dat klikt niet lekker door.

919
00:42:59,240 --> 00:43:02,060
De horrorverhalen of de utopische verhalen, die doen het goed.

920
00:43:02,120 --> 00:43:06,880
Dus die Pidum skill van Skynet, we gaan allemaal dood.

921
00:43:07,360 --> 00:43:08,120
We hebben geen banen meer.

922
00:43:08,280 --> 00:43:09,360
Of het los alles op.

923
00:43:09,860 --> 00:43:11,880
Dat klikt lekker, maar alles daartussenin gaat het om.

924
00:43:12,060 --> 00:43:16,260
Wat is het vervelendste utopisch verhaal dat je de laatste tijd gehoord hebt?

925
00:43:19,360 --> 00:43:20,640
Utopisch verhaal of dystopisch?

926
00:43:21,660 --> 00:43:22,060
Utopisch.

927
00:43:23,360 --> 00:43:26,380
Want er wordt natuurlijk ook heel veel gefantaseerd over wat er allemaal kan.

928
00:43:26,680 --> 00:43:28,320
En wat het allemaal gaat oplossen.

929
00:43:29,000 --> 00:43:36,200
Nou ja, wat ik lastig vind over het algemeen is dat denk ik waar AI nu staat, of het nou agent of agentic,

930
00:43:36,200 --> 00:43:39,180
en ik zal even inzoomen op agentic, dat het een beetje wordt overhyped.

931
00:43:39,340 --> 00:43:41,440
Dus ik denk dat er te veel verwachtingen zijn wat het nu kan.

932
00:43:41,960 --> 00:43:44,580
Ik denk wat het in de toekomst impact gaat hebben wordt een beetje underhyped.

933
00:43:44,660 --> 00:43:48,400
Ik denk dat mensen daar vergissen wat het gaat doen met werkgelegenheid.

934
00:43:49,060 --> 00:43:53,660
Maar wat ik in mijn persoonlijke werk merk is dat mensen een...

935
00:43:53,680 --> 00:43:56,620
Ik laat ook onze grote vriend Alexander Klubbing even noemen.

936
00:43:56,670 --> 00:44:01,780
Die even bij Yenek een geweldige demo doet over Agentic, AI.

937
00:44:03,140 --> 00:44:04,400
Dat een volledig marketingbureau.

938
00:44:04,550 --> 00:44:05,920
Dat je van alles wat A tot Z kan doen.

939
00:44:06,020 --> 00:44:08,500
En ik heb de volgende dag dan een collega staan van dat wil ik ook.

940
00:44:08,740 --> 00:44:09,580
Het werkt toch?

941
00:44:10,479 --> 00:44:12,260
Nee, dat is een utopisch iets.

942
00:44:12,460 --> 00:44:15,400
Misschien over vijf of zes of zeven jaar.

943
00:44:15,700 --> 00:44:18,320
Maar wat hij niet laat zien is de output van het geheel.

944
00:44:18,440 --> 00:44:21,220
En dat is denk ik niet al te goed.

945
00:44:21,360 --> 00:44:24,300
Het is een mooi voorland dat ooit kan.

946
00:44:25,010 --> 00:44:27,020
Maar zulke verhalen, die utopische verhalen,

947
00:44:27,020 --> 00:44:29,820
die worden denk ik iets te groot gemaakt hier en het nu.

948
00:44:30,060 --> 00:44:30,900
Dat kan gewoon nog niet.

949
00:44:31,140 --> 00:44:32,320
Of gewoon nog langer niet betrouwbaar.

950
00:44:33,280 --> 00:44:36,160
En dan is het lastig, want dan gaat de fantasie met ons op de loop.

951
00:44:36,660 --> 00:44:42,320
En dan word je teleurgesteld eigenlijk in wat de technologie nu kan.

952
00:44:42,480 --> 00:44:43,940
Terwijl het is echt waanzinnig.

953
00:44:44,030 --> 00:44:46,580
Net wat je zegt, vier jaar geleden had je niet bedacht.

954
00:44:46,760 --> 00:44:48,440
Wat dan nu kan met zo'n MRI-scan.

955
00:44:49,620 --> 00:44:51,640
Ja, het soort hype cycle van Gartner.

956
00:44:52,320 --> 00:44:53,300
Op Annabole is het soms.

957
00:44:54,320 --> 00:44:55,620
Je zegt, het kan toch niet?

958
00:44:56,360 --> 00:44:58,180
En ik denk gewoon dat je heel realistisch moet zijn.

959
00:44:58,380 --> 00:45:02,740
Want je hebt gewoon, of nou een directie of een RvT.

960
00:45:02,940 --> 00:45:05,060
Die hebben soms best wel extreme verwachtingen.

961
00:45:05,260 --> 00:45:06,740
Wat met AI kan.

962
00:45:06,980 --> 00:45:08,380
En soms is het ook echt gewoon terug duwen.

963
00:45:08,420 --> 00:45:09,360
Van nee, dit kan het nog niet.

964
00:45:09,540 --> 00:45:10,280
Maar dit kan het wel.

965
00:45:10,920 --> 00:45:11,380
Ja, precies.

966
00:45:11,600 --> 00:45:15,060
Als we nu een mediauiting hebben.

967
00:45:15,220 --> 00:45:18,080
Een paar weken geleden hebben we natuurlijk veel impact.

968
00:45:18,300 --> 00:45:19,500
met het verhaal van booking.com.

969
00:45:21,400 --> 00:45:22,560
Daar hebben we een collectieve claim

970
00:45:22,610 --> 00:45:24,320
voor opgestart. Je ziet dat

971
00:45:24,840 --> 00:45:26,480
sommige nieuwsberichten honderden

972
00:45:26,740 --> 00:45:27,740
reacties komen van

973
00:45:29,820 --> 00:45:30,260
consumenten

974
00:45:30,460 --> 00:45:31,520
onder nu.nl of andere dingen.

975
00:45:32,320 --> 00:45:33,980
AI is ook gewoon dat je al die honderden reacties

976
00:45:34,640 --> 00:45:36,340
kan analyseren en je hebt binnen vijf minuten

977
00:45:36,350 --> 00:45:38,380
een soort sentiment van duizend comments

978
00:45:38,620 --> 00:45:40,040
hoe mensen denken over.

979
00:45:40,370 --> 00:45:42,200
En daar zit ook echt de kracht in

980
00:45:42,270 --> 00:45:42,680
hier en nu.

981
00:45:44,360 --> 00:45:45,160
En al die

982
00:45:46,110 --> 00:45:48,260
over de top agentic flows, daar zijn we

983
00:45:48,280 --> 00:45:49,900
gewoon nog niet. Maar ja, daar weet je alles van.

984
00:45:49,930 --> 00:45:50,520
Je hebt er een boek over.

985
00:45:52,199 --> 00:45:53,520
Dit is ook geen bruggetje.

986
00:45:54,540 --> 00:45:55,860
We zitten een beetje in het hier en nu.

987
00:45:56,240 --> 00:45:57,460
Maar we hebben ook een mooi thema.

988
00:45:57,940 --> 00:45:59,920
Naar de toekomst gericht. Dus eigenlijk

989
00:46:00,090 --> 00:46:02,180
een stukje dromen. En ik wil je even

990
00:46:02,210 --> 00:46:04,280
wat tijd geven om even over na te denken.

991
00:46:04,290 --> 00:46:05,800
Om toch even te mogen dromen

992
00:46:06,360 --> 00:46:07,780
van wat AI in de toekomst

993
00:46:08,010 --> 00:46:09,900
wat jouw betreft zou mogen brengen. En dat mag zonder

994
00:46:10,060 --> 00:46:11,260
grenzen, mag privé, mag werk.

995
00:46:11,980 --> 00:46:14,000
Maar wat zou AI wat jouw betreft moeten kunnen

996
00:46:14,010 --> 00:46:15,480
in de toekomst? Of voor jou oplossen?

997
00:46:15,760 --> 00:46:18,940
We dromen een leven vol gemak.

998
00:46:19,900 --> 00:46:23,540
De technologie die alles doet waar we van dromen.

999
00:46:24,780 --> 00:46:27,840
Geen grenzen meer, niets houdt ons nog tegen.

1000
00:46:29,200 --> 00:46:33,860
Het leven zoals wij het altijd wilden beleven.

1001
00:46:37,040 --> 00:46:37,820
Lekker nummertje zeg.

1002
00:46:37,880 --> 00:46:38,240
Ja hè.

1003
00:46:38,560 --> 00:46:39,300
Ook met AI gemaakt.

1004
00:46:39,620 --> 00:46:39,920
Zeker.

1005
00:46:40,620 --> 00:46:42,900
Met Suno gemaakt.

1006
00:46:43,920 --> 00:46:44,900
Ik zeg, laat mijn vlek op.

1007
00:46:47,200 --> 00:46:48,260
ik heb even na kunnen denken

1008
00:46:48,360 --> 00:46:50,220
op persoonlijk vlak hoop ik

1009
00:46:50,840 --> 00:46:51,860
ik kan natuurlijk zeggen, ik hoop dat

1010
00:46:52,570 --> 00:46:53,840
AI of generatieve AI

1011
00:46:54,600 --> 00:46:56,040
heel veel maatschappelijke problemen oplosten

1012
00:46:56,170 --> 00:46:57,540
dus denk je aan onderzoek naar

1013
00:46:58,400 --> 00:46:59,300
ziektes, ik denk dat daar

1014
00:46:59,540 --> 00:47:00,980
hoor je geweldige verhalen over

1015
00:47:02,680 --> 00:47:03,560
natuurlijk proteïnevouwen

1016
00:47:03,760 --> 00:47:05,180
folding, dus ik denk dat dat

1017
00:47:05,210 --> 00:47:06,980
heel erg hoop ik ga bijdragen aan

1018
00:47:08,120 --> 00:47:08,780
het oplossen van

1019
00:47:09,100 --> 00:47:10,040
het snel oplossen van

1020
00:47:11,700 --> 00:47:12,660
van ja, al

1021
00:47:13,180 --> 00:47:14,960
medische issues die al heel lang lopen

1022
00:47:14,980 --> 00:47:16,160
kanker is of andere soorten vormen.

1023
00:47:18,720 --> 00:47:20,040
Als je gaat kijken naar werk,

1024
00:47:20,480 --> 00:47:21,780
als ik echt kan dromen,

1025
00:47:22,220 --> 00:47:24,760
maar ik weet niet hoe snel het realistisch is,

1026
00:47:24,800 --> 00:47:26,000
geloof ik ook echt wel dat...

1027
00:47:27,380 --> 00:47:29,080
We doen nu als consumentenbond bijvoorbeeld,

1028
00:47:29,510 --> 00:47:30,300
we maken heel veel content.

1029
00:47:31,060 --> 00:47:32,440
Ik heb net eerder gezegd, we hebben keuzestress.

1030
00:47:32,780 --> 00:47:35,120
Er zijn zoveel dingen die wij willen vertellen en oplossen.

1031
00:47:35,300 --> 00:47:38,340
Alleen, ja, we zijn met een kleine 300 man,

1032
00:47:38,520 --> 00:47:39,360
of like 260.

1033
00:47:41,380 --> 00:47:42,260
Ja, we kunnen hier alles oppakken.

1034
00:47:42,260 --> 00:47:44,160
Dus ik hoop dat als ik vooruitkijk,

1035
00:47:44,660 --> 00:47:45,960
Twee, drie, vier, vijf jaar.

1036
00:47:46,240 --> 00:47:51,920
Is dat wij misschien in staat zijn om nog meer maatschappelijke fricties te herkennen met AI.

1037
00:47:52,090 --> 00:47:55,400
Het identificeren en ook de afweging te maken, moeten we hier iets mee?

1038
00:47:56,000 --> 00:47:59,040
En dat we misschien ook nog sneller in staat zijn om daar heel snel content over te maken.

1039
00:48:00,140 --> 00:48:01,980
Met AI, wel altijd met de human in de loop.

1040
00:48:02,240 --> 00:48:10,600
Dat onderzoeken zegt van nou, en dat wij misschien daarna met dezelfde aantal mensen toch veel meer impact maken met de uiting.

1041
00:48:10,760 --> 00:48:14,860
Want het voelt soms voor mij heel erg, ja, er zijn zoveel dingen die we willen oppakken.

1042
00:48:14,860 --> 00:48:16,140
Alleen we moeten echt gewoon keuzes maken.

1043
00:48:17,200 --> 00:48:23,460
Dus ik hoop dat jij kan bijdragen dat we als consument rond veel meer impact kunnen maken met de content die we maken.

1044
00:48:23,600 --> 00:48:24,240
Met de uiting die we doen.

1045
00:48:25,840 --> 00:48:27,000
Maar wel altijd met de menselijke maat.

1046
00:48:27,660 --> 00:48:28,980
Dat lijkt me een hele mooie.

1047
00:48:29,180 --> 00:48:29,580
Dank je wel.

1048
00:48:29,680 --> 00:48:30,880
Dank je wel voor dit gesprek.

1049
00:48:30,940 --> 00:48:31,640
Voor de openheid.

1050
00:48:32,760 --> 00:48:34,400
Dank je wel dat je naar de studio wilde komen.

1051
00:48:34,560 --> 00:48:34,900
Graag gedaan.

1052
00:48:38,320 --> 00:48:40,340
Leuk dat je weer luisterde naar deze aflevering.

1053
00:48:40,600 --> 00:48:43,080
Vergeet je niet te abonneren via de favoriete podcast app.

1054
00:48:43,330 --> 00:48:44,300
Dan mis je geen aflevering.

1055
00:48:44,850 --> 00:48:45,480
Tot de volgende keer.

1056
00:48:45,660 --> 00:48:46,240
Tot de volgende keer.


People on this episode