AIToday Live

S07E37 - Tussen twee vuren: Martin en Kim nemen de AIToday hosts onder de loep

Aigency by Info Support Season 7 Episode 37

Martin van Kranenburg en Kim Pot interviewen Joop Snijder en Niels Naglé over hun ervaringen en inzichten op het gebied van AI. Ze bespreken de veranderende perceptie van AI sinds de komst van ChatGPT en de uitdagingen die deze snelle adoptie met zich meebrengt.

De hosts delen tips voor het herkennen van echte AI-expertise en benadrukken het belang van AI-geletterdheid binnen organisaties. Ze gaan in op de realiteit van AI-agents en delen hun favoriete AI-tools voor verschillende toepassingen.

Onderwerpen

  • De veranderende perceptie van AI sinds ChatGPT
  • Hoe AI-expertise te beoordelen
  • Het belang van AI-geletterdheid binnen organisaties
  • De rol van AI-agents en hun effectiviteit
  • Favoriete AI-tools van de hosts
Links

Genoemde entiteiten: Martin van Kranenburg - Kim Pot

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,040
In deze aflevering hoor je Martin van Kranenburg, bestseller-auteur, en Kim Pot, auteur van het

2
00:00:06,040 --> 00:00:12,120
boek "Werk Hand in Hand met AI", die de rollen omdraaien en ons als host van AIToday Live

3
00:00:12,120 --> 00:00:13,120
interviewen.

4
00:00:13,120 --> 00:00:17,799
In deze bijzondere special stellen zij de prangende vragen die normaal aan hen zouden

5
00:00:17,799 --> 00:00:18,799
worden gesteld.

6
00:00:18,799 --> 00:00:25,639
Van de beoordeling van echte AI-expertise tot de ontmaskering van de AI-agents-hype,

7
00:00:25,639 --> 00:00:29,760
Martin en Kim gaan diep in op wat AI werkelijk betekent voor professionals.

8
00:00:29,760 --> 00:00:35,080
Luister naar dit verfrissende gesprek met openhartige antwoorden over dagelijkse AI-tools

9
00:00:35,080 --> 00:00:39,880
en de realiteit achter alle buzzwords die rondvliegen in de wereld van kunstmatige intelligentie.

10
00:00:39,881 --> 00:00:40,880
[Muziek]

11
00:00:40,880 --> 00:00:41,880
[Muziek]

12
00:00:41,880 --> 00:00:42,880
Hoi,

13
00:00:42,880 --> 00:00:43,880
Leuk dat je weer luistert

14
00:00:43,880 --> 00:00:44,880
naar een aflevering

15
00:00:44,880 --> 00:00:45,880
van AIToday Live

16
00:00:45,880 --> 00:00:49,020
En we hebben een special, maar echt een serieuze special.

17
00:00:49,020 --> 00:00:51,900
Want we zijn te gast in onze eigen podcast.

18
00:00:51,900 --> 00:00:52,520
Bijzonder.

19
00:00:52,520 --> 00:00:54,760
Mijn naam is Joop Snijder, CTO bij Aigency.

20
00:00:54,760 --> 00:00:57,260
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.

21
00:00:57,260 --> 00:01:00,520
En dit is het laatste wat jullie zelf zeggen.

22
00:01:00,520 --> 00:01:02,020
Want Martin en ik nemen het over.

23
00:01:02,020 --> 00:01:02,360
Martin.

24
00:01:02,360 --> 00:01:05,180
Ja, nou ik zou jullie nog wel even introduceren, toch?

25
00:01:05,180 --> 00:01:06,060
Dat hadden we afgesproken.

26
00:01:06,060 --> 00:01:06,820
Ja, zeker.

27
00:01:06,820 --> 00:01:08,340
Ik dacht, we beginnen bij de mannen dan.

28
00:01:08,340 --> 00:01:14,460
Ja, want kijk, Martin die is niet alleen vaste luisteraar, bijna vaste gast.

29
00:01:14,460 --> 00:01:18,200
Dus we hebben al twee opnames gemaakt over je boek Schrijven voor het brein.

30
00:01:18,200 --> 00:01:20,280
En ChatGPT als tweede brein.

31
00:01:20,280 --> 00:01:22,040
Heel goed beluisterd.

32
00:01:22,040 --> 00:01:24,340
Dus luister die terug als je dat nog niet gedaan hebt.

33
00:01:24,340 --> 00:01:26,340
Maar dus bestseller auteur.

34
00:01:26,340 --> 00:01:30,560
En ambassadeur van onze podcast.

35
00:01:30,560 --> 00:01:36,160
En Martin die mailde mij en Niels met een heel erg leuk idee.

36
00:01:36,160 --> 00:01:40,460
Die zei, mag ik jullie nou eens interviewen?

37
00:01:40,460 --> 00:01:42,060
Want ik heb een hele stapel vragen.

38
00:01:42,060 --> 00:01:43,300
En die wil ik kwijt.

39
00:01:43,300 --> 00:01:43,740
Ja.

40
00:01:44,100 --> 00:01:45,880
Dus daarom Martin.

41
00:01:45,880 --> 00:01:50,400
En Martin stelde weer voor om Kim, Kim Pot, onze productiemedewerker.

42
00:01:50,400 --> 00:01:52,920
Maar ook auteur van het boek.

43
00:01:52,920 --> 00:01:54,780
Werk hand in hand met AI.

44
00:01:54,780 --> 00:01:55,480
Precies.

45
00:01:55,480 --> 00:01:59,980
En gast in de podcast, laatst geweest over je boek.

46
00:01:59,980 --> 00:02:01,080
Dus luister die ook terug.

47
00:02:01,080 --> 00:02:04,260
En jullie gaan samen, gaan jullie ons interviewen.

48
00:02:04,480 --> 00:02:05,880
Ik dacht, in mijn eentje ga ik je niet redden.

49
00:02:05,880 --> 00:02:10,080
Als ik deze twee slimme gasten moet gaan interviewen.

50
00:02:10,080 --> 00:02:12,400
Dus ik dacht, ik ga Kim vragen.

51
00:02:12,400 --> 00:02:13,540
Om erbij te zijn.

52
00:02:13,540 --> 00:02:16,580
En we hebben, ja, ik heb echt wel pittige vragen jongens.

53
00:02:16,580 --> 00:02:17,380
Dus hou je vast.

54
00:02:18,440 --> 00:02:19,560
Kim, zal ik de eerste doen?

55
00:02:19,560 --> 00:02:20,500
Ik ben heel benieuwd.

56
00:02:20,500 --> 00:02:20,740
Ja.

57
00:02:20,740 --> 00:02:24,580
Even één vraag.

58
00:02:24,580 --> 00:02:25,000
Eerste.

59
00:02:26,180 --> 00:02:32,020
Wat heeft je het meest verrast van AI en ChatGPT?

60
00:02:32,020 --> 00:02:33,460
Wat heeft je het meest verrast?

61
00:02:33,460 --> 00:02:34,880
In positieve zin.

62
00:02:34,880 --> 00:02:35,840
Laten we daarmee beginnen.

63
00:02:35,840 --> 00:02:36,140
Ja.

64
00:02:36,240 --> 00:02:39,640
En ik wil het daarna meteen weten in negatieve zin.

65
00:02:39,640 --> 00:02:39,860
Ja.

66
00:02:39,860 --> 00:02:41,440
Zal ik beginnen?

67
00:02:41,440 --> 00:02:42,040
Ja, ga je van.

68
00:02:42,040 --> 00:02:46,820
Ik loop al een tijdje mee op het gebied van kunstmatige intelligentie.

69
00:02:46,820 --> 00:02:49,180
Dus ik ben ingestapt in 2012.

70
00:02:49,180 --> 00:02:53,960
Dus ruim voor de opkomst van ChatGPT.

71
00:02:53,960 --> 00:03:02,080
En voor de komst van ChatGPT moesten we heel erg eraan trekken om mensen aan te geven van

72
00:03:02,080 --> 00:03:04,240
dit is best wel een hele handige technologie.

73
00:03:04,240 --> 00:03:05,920
Daar kan je echt andere dingen mee doen.

74
00:03:06,120 --> 00:03:07,900
Dan de standaard automatisering.

75
00:03:07,900 --> 00:03:11,460
Dus die adoptie die liep helemaal niet.

76
00:03:11,460 --> 00:03:13,360
Als ik het even heel zwart-wit stel.

77
00:03:13,360 --> 00:03:18,920
En dus wat heeft mij heel erg verbaasd met ChatGPT is die adoptiegraad.

78
00:03:18,920 --> 00:03:21,480
Het is vanaf november 2022.

79
00:03:21,480 --> 00:03:23,920
Ja, kwam dit voorbij.

80
00:03:23,920 --> 00:03:28,140
En de hele wereld letterlijk is daar bovenop gesprongen.

81
00:03:28,140 --> 00:03:32,000
Dus waar we eerst al moesten zeggen van dit is handig.

82
00:03:32,000 --> 00:03:32,500
Doe het nou.

83
00:03:32,500 --> 00:03:34,060
Daar kan je echt hele gave dingen mee doen.

84
00:03:35,520 --> 00:03:36,240
Dat kwam je niet binnen.

85
00:03:36,240 --> 00:03:37,480
Ja, kwam je niet binnen.

86
00:03:37,480 --> 00:03:39,540
En nu worden we overal voor gevraagd.

87
00:03:39,540 --> 00:03:40,340
Ja.

88
00:03:40,980 --> 00:03:45,280
En dat brengt het ook meteen tot de nadelen.

89
00:03:45,280 --> 00:03:50,280
Is dat mensen ook denken dat je nu alles ongeveer kan oplossen met taalmodellen en met ChatGPT.

90
00:03:50,280 --> 00:03:54,180
Dus dat is wel weer een nadeel dat de verwachtingen zijn zo groot geworden.

91
00:03:54,180 --> 00:03:56,920
Misschien wel buitenproportioneel.

92
00:03:56,920 --> 00:03:57,100
Ja.

93
00:03:57,440 --> 00:03:59,120
Ik heb daar gelijk een vraag aanvullend op.

94
00:03:59,120 --> 00:04:00,900
Want ik denk dat we...

95
00:04:00,900 --> 00:04:04,780
Hebben jullie het ook zo ervaren dat ja, de hele wereld springt erop.

96
00:04:04,780 --> 00:04:06,440
Maar er is ook een soort AI-FOMO.

97
00:04:06,440 --> 00:04:10,040
Waardoor mensen ook een beetje raar gaan doen door AI.

98
00:04:11,200 --> 00:04:13,820
Ja, en dat had je daarvoor echt niet.

99
00:04:13,820 --> 00:04:17,640
Ik bedoel, er was AI, kunstmatige intelligentie, machine learning.

100
00:04:17,640 --> 00:04:19,720
Dat was echt iets voor de techniek.

101
00:04:19,720 --> 00:04:22,980
Ja, er is een research hoek, technologie.

102
00:04:23,840 --> 00:04:26,800
In 2012 werd er nog gesproken over een AI-winter.

103
00:04:26,800 --> 00:04:30,780
Ja, je was gek als je je daarmee bezighield.

104
00:04:30,780 --> 00:04:34,440
Wat is dat?

105
00:04:34,440 --> 00:04:35,260
De FOMO.

106
00:04:35,260 --> 00:04:36,440
Oh ja, die FOMO.

107
00:04:36,440 --> 00:04:39,820
En die FOMO geeft denk ik aan, zeg maar...

108
00:04:39,820 --> 00:04:41,420
Dat heeft alles met die adoptie te maken.

109
00:04:41,420 --> 00:04:45,040
Met het idee van, ja, maar ik moet van alles weten.

110
00:04:45,040 --> 00:04:48,820
Ik moet weten welk laatste tooltje, wat die allemaal nu kan.

111
00:04:48,820 --> 00:04:51,960
Dus dat heeft te maken met die adoptie.

112
00:04:51,960 --> 00:04:55,120
En bang zijn dat je iets mist.

113
00:04:55,120 --> 00:04:59,180
Terwijl, ja, als je ergens heel goed in bent...

114
00:04:59,180 --> 00:05:03,960
Ik denk dat je beter een tool goed kan leren en daar je op focussen...

115
00:05:03,960 --> 00:05:07,000
Dan overal maar allemaal tooltjes en dingetjes.

116
00:05:07,000 --> 00:05:08,080
Iemand zei het laatst nog, ja.

117
00:05:08,080 --> 00:05:11,900
Ja, dan weet je van alles een beetje en van niks alles.

118
00:05:11,900 --> 00:05:13,120
AI-hoppers.

119
00:05:13,120 --> 00:05:14,920
Ja, oh ja, AI-hoppers.

120
00:05:14,920 --> 00:05:17,100
Die gaan van de ene tool naar de andere tool.

121
00:05:17,100 --> 00:05:18,580
Komt die weer uit, gaan ze daarover hebben.

122
00:05:18,580 --> 00:05:18,720
Ja.

123
00:05:19,260 --> 00:05:22,240
En je moet niet bij de tool beginnen.

124
00:05:22,240 --> 00:05:23,540
Wij doen maar, Niels.

125
00:05:23,540 --> 00:05:24,200
Nee, ja.

126
00:05:24,200 --> 00:05:24,960
Sowieso even met...

127
00:05:24,960 --> 00:05:26,100
Positief en eerst positief.

128
00:05:26,100 --> 00:05:26,380
Dan even.

129
00:05:26,380 --> 00:05:28,720
Is even door op dit stukje even doorgaan, inderdaad.

130
00:05:28,720 --> 00:05:29,880
Dit wordt een leuke.

131
00:05:29,880 --> 00:05:30,620
Ja, ja, ja.

132
00:05:30,620 --> 00:05:33,000
Ik heb er nu al zin om terug te luisteren.

133
00:05:33,000 --> 00:05:35,160
Is even waar we net over hadden.

134
00:05:35,160 --> 00:05:35,780
De toolhopper.

135
00:05:35,780 --> 00:05:39,420
Ik denk dat we namelijk voor allebei de persoonlijkheden nodig hebben.

136
00:05:39,580 --> 00:05:42,680
We hebben denk ik degene die nodig die de hop doen van tool naar tool naar tool.

137
00:05:42,680 --> 00:05:43,100
Ja.

138
00:05:43,100 --> 00:05:47,360
Alleen die moeten dan niet focussen op tool naar tool naar tool, maar eigenlijk wat zijn de verschillen tussen de tools.

139
00:05:47,360 --> 00:05:50,680
En we hebben de specialisten nodig die een bepaalde tool heel goed kunnen inzetten.

140
00:05:50,680 --> 00:05:51,060
Oké.

141
00:05:51,060 --> 00:05:54,640
Dus ik denk dat allebei nodig gaat zijn in de toekomst.

142
00:05:54,640 --> 00:06:00,320
En dat het niet erg hoeft te zijn om te hoppen, maar dan moet je  het hoppen en dan moet je wat doen met die hop van de eerste stap naar de volgende stap.

143
00:06:00,320 --> 00:06:02,200
Zodat je die meerwaarde daar kan gebruiken.

144
00:06:02,200 --> 00:06:03,260
Doelmatig hoppen.

145
00:06:03,660 --> 00:06:04,980
Ja, dat denk ik wel.

146
00:06:04,980 --> 00:06:08,240
Want als je alleen maar op één tool focust, weet je ook niet de verschillen daarin.

147
00:06:08,240 --> 00:06:10,340
Maar je weet heel goed waar die goed in is en waar die niet goed in is.

148
00:06:10,340 --> 00:06:12,660
Maar je hebt ook die comparison nodig, wat mij betreft.

149
00:06:12,660 --> 00:06:16,880
Dan terug te komen op je eerste vraag van God, positief verrast en negatief verrast.

150
00:06:16,880 --> 00:06:21,500
Positief verrast is dat we uitdagingen hadden in het bedrijfsleven.

151
00:06:21,500 --> 00:06:24,920
AI, machine learning, zeg maar over de bühne te krijgen.

152
00:06:24,920 --> 00:06:27,300
Echte toepassingen, behalve die er al mee bezig waren.

153
00:06:27,300 --> 00:06:32,220
Mijn positief verrast is dat het niet alleen in het bedrijfsleven zo opgeplakt wordt.

154
00:06:32,220 --> 00:06:35,400
Maar eigenlijk als maatschappij opgepakt wordt.

155
00:06:35,400 --> 00:06:38,600
Waardoor we nu de discussies hebben die we met de maatschappij willen doen.

156
00:06:38,600 --> 00:06:40,020
Wat technologie ons kan brengen.

157
00:06:40,020 --> 00:06:41,420
Want het is een hulpmiddel.

158
00:06:41,420 --> 00:06:45,040
En door dat eigenlijk in de maatschappij breed nu tot onze beschikking te hebben.

159
00:06:45,040 --> 00:06:46,560
Dat heeft zijn uitdagingen.

160
00:06:46,560 --> 00:06:48,180
Dat gaat zijn uitdagingen krijgen.

161
00:06:48,180 --> 00:06:49,880
Maar daardoor hebben we wel bredere gesprek.

162
00:06:49,880 --> 00:06:51,800
Dus daar ben ik echt positief door verrast.

163
00:06:51,800 --> 00:06:57,500
En de keerzijde van dat stukje is dat dus ook de hele maatschappij ermee belast is.

164
00:06:57,500 --> 00:07:00,100
Ook in de negatieve zin.

165
00:07:00,100 --> 00:07:01,560
En wat bedoel je met negatieve zin?

166
00:07:01,740 --> 00:07:02,880
Diepfakes.

167
00:07:02,880 --> 00:07:04,400
Niet meer vertrouwen van media.

168
00:07:04,400 --> 00:07:05,660
Dat soort zaken.

169
00:07:05,660 --> 00:07:06,380
Dus de inzet.

170
00:07:06,380 --> 00:07:08,040
De doemdenkers.

171
00:07:08,040 --> 00:07:09,860
Daarmee ook een heel groot podium hebben.

172
00:07:09,860 --> 00:07:12,660
En dat daar de uitdaging wel ligt.

173
00:07:12,660 --> 00:07:15,500
Dus dat heeft me in de negatieve deel wel verrast.

174
00:07:15,500 --> 00:07:17,760
Dat de meeste aandacht nog steeds naar de negatieve nieuws gaat.

175
00:07:17,760 --> 00:07:18,640
Zoals alle nieuws.

176
00:07:18,640 --> 00:07:19,660
Maar ook hierbij weer.

177
00:07:19,660 --> 00:07:22,380
Dus dat blijft vervelend.

178
00:07:22,520 --> 00:07:23,480
Ik ben wel benieuwd.

179
00:07:23,480 --> 00:07:24,960
Want jullie noemen allerlei termen nu ook.

180
00:07:24,960 --> 00:07:27,200
AI, machine learning, GPT.

181
00:07:27,200 --> 00:07:31,780
Wat vinden jullie het grootste misverstand over AI termen die je hoort?

182
00:07:31,780 --> 00:07:38,260
Nou, op dit moment dat AI eigenlijk gelijk staat aan generatieve AI.

183
00:07:38,260 --> 00:07:40,580
Terwijl het is een deel van de toolkit.

184
00:07:40,860 --> 00:07:43,180
En de rest moet ook gewoon onder aandacht komen.

185
00:07:43,180 --> 00:07:45,180
Zen en AI is niet de oplossing voor alles.

186
00:07:45,180 --> 00:07:46,760
Maar met andere tools.

187
00:07:46,760 --> 00:07:48,160
Zoals machine learning.

188
00:07:48,160 --> 00:07:51,100
Kan je andere vraagstukken ook vaak beter beantwoorden.

189
00:07:51,900 --> 00:07:54,340
Ja, ik heb nog een prangende vraag.

190
00:07:54,340 --> 00:07:57,460
Ik spreek heel veel ondernemers.

191
00:07:57,460 --> 00:08:01,400
En ik zeg, ja Martin, iedereen is een AI-expert.

192
00:08:01,400 --> 00:08:07,060
Maar hoe kan ik nou beoordelen of iemand echt weet waar die het over heeft?

193
00:08:07,060 --> 00:08:08,640
Dus ik heb even een moeilijke vraag aan jullie.

194
00:08:08,640 --> 00:08:10,400
Dus stel je bent ondernemer.

195
00:08:10,400 --> 00:08:11,700
En je luistert goed.

196
00:08:11,700 --> 00:08:13,780
Want je bent allemaal fan natuurlijk van jullie.

197
00:08:13,780 --> 00:08:17,320
Maar welke drie vragen moet een ondernemer nou stellen.

198
00:08:17,320 --> 00:08:19,680
Waar hij eigenlijk zo die ballon kan doorprikken.

199
00:08:19,680 --> 00:08:21,540
Of weet, hé, jij weet hier alles van.

200
00:08:21,540 --> 00:08:21,780
Ja.

201
00:08:21,780 --> 00:08:25,340
Oeh, ik weet niet of ik het in drie vragen kan vatten.

202
00:08:25,340 --> 00:08:30,060
Maar het begint denk ik eerst met wat je uiteindelijk wil.

203
00:08:30,060 --> 00:08:31,760
Je had het net over doelmatigheid.

204
00:08:31,760 --> 00:08:37,960
Dus dat maakt natuurlijk ook uit van hoeveel expertise heb je nodig voor de verschillende onderdelen.

205
00:08:37,960 --> 00:08:49,240
En ik zou het eigenlijk willen opdelen in, weet je, wil je iemand hebben die jou gaat helpen met een stukje workflow-automatisering?

206
00:08:49,620 --> 00:08:49,820
Ja.

207
00:08:49,820 --> 00:08:51,780
Is die dan handig met de tool?

208
00:08:51,780 --> 00:08:52,460
Ja.

209
00:08:52,460 --> 00:08:57,520
Dus dan ben je in de low-code, no-code-achtige omgevingen.

210
00:08:57,520 --> 00:08:59,720
Wil je maatwerk?

211
00:08:59,720 --> 00:09:04,320
Ja, dan heb je natuurlijk veel diepere expertise nodig.

212
00:09:05,140 --> 00:09:10,780
Dus ik denk dat je daar in ieder geval alvast een beetje voor jezelf moet gaan bepalen van waar wil ik naartoe, weet je.

213
00:09:10,780 --> 00:09:13,340
Ga ik gebruik maken van standaardoplossingen?

214
00:09:13,340 --> 00:09:17,380
Dan is de diepte van expertise misschien wat minder nodig, hè?

215
00:09:17,380 --> 00:09:18,180
Ja.

216
00:09:18,500 --> 00:09:24,780
En dan hoef je geen twaalf jaar ervaring te hebben met kunstmatige intelligentie.

217
00:09:24,780 --> 00:09:27,040
Ga je naar maatwerk toe?

218
00:09:27,040 --> 00:09:33,960
Dan zou ik ook wel niet eens specifiek vragen eigenlijk om iets door te prikken.

219
00:09:33,960 --> 00:09:36,340
Maar dat je ook gewoon vraagt naar opleiding.

220
00:09:36,340 --> 00:09:39,440
Heb je gewoon data science gestudeerd?

221
00:09:39,440 --> 00:09:41,520
Waar haal je kennis vandaan?

222
00:09:41,520 --> 00:09:42,840
Waar haal je kennis vandaan, ja.

223
00:09:43,060 --> 00:09:48,200
En dat is wat anders van ik kan leuk prompten of ik kan wat in elkaar klikken.

224
00:09:48,200 --> 00:09:52,040
In sommige gevallen kan dat geweldig zijn dat iemand dat voor je doet.

225
00:09:52,040 --> 00:09:58,480
Maar als je daadwerkelijk voor bedrijfskritische applicaties expertise nodig hebt,

226
00:09:58,480 --> 00:10:01,200
dan wil je ook mensen hebben die daarin opgeleid zijn.

227
00:10:01,200 --> 00:10:02,280
Want het is uiteindelijk een vak.

228
00:10:02,280 --> 00:10:03,640
En klantcases vragen?

229
00:10:03,640 --> 00:10:05,640
Klantcases vragen, referenties vragen.

230
00:10:05,640 --> 00:10:08,380
Referenties vragen is eigenlijk het normale, maar eigenlijk, je triggert me wel.

231
00:10:09,000 --> 00:10:13,440
Eigenlijk zeg je, een goede AI-expert gaat eerst terug naar de kern van de vraag.

232
00:10:13,440 --> 00:10:14,020
Ja.

233
00:10:14,020 --> 00:10:17,840
Want een AI is een deel van zijn toolset.

234
00:10:17,840 --> 00:10:18,360
Precies.

235
00:10:18,360 --> 00:10:21,200
En dan gaat hij kijken, is hij überhaupt wel AI vanaf?

236
00:10:21,200 --> 00:10:26,000
Dus dat zegt me echt wel een ding waar je iemand kan...

237
00:10:26,000 --> 00:10:30,380
Ja, wat ik zelf ook wel eens heb hoor, als we het dan over chat-GPT hebben.

238
00:10:30,380 --> 00:10:31,700
Ja, ik ben altijd heel benieuwd.

239
00:10:31,700 --> 00:10:33,660
Mag ik eens een GPT van je zien?

240
00:10:33,660 --> 00:10:34,380
Oh ja.

241
00:10:34,380 --> 00:10:36,640
En dan gewoon kijken.

242
00:10:36,640 --> 00:10:36,760
Slim.

243
00:10:37,080 --> 00:10:43,560
En als je nog nooit een GPT hebt gebouwd, zeg maar, hallo, hoeveel meters heb je daarin gemaakt?

244
00:10:43,560 --> 00:10:45,540
Nou, dat doen wij met software natuurlijk ook.

245
00:10:45,540 --> 00:10:50,200
Dus als iemand komt solliciteren, neem een stukje code mee waar je trots op bent.

246
00:10:50,200 --> 00:10:53,740
En dan gaan we dat gezamenlijk bekijken en leg het maar eens uit.

247
00:10:53,740 --> 00:10:54,320
Ja, dat.

248
00:10:54,320 --> 00:10:56,460
Oké, dus dat hebben we wel mooi.

249
00:10:56,460 --> 00:10:59,080
Dus opleiding, even waar heb je het vandaan?

250
00:10:59,820 --> 00:11:04,460
Als iemand meteen in de tool blijft duiken, dan weet je al meteen, dan gaat hij niet naar de oplossing zoeken.

251
00:11:04,460 --> 00:11:07,120
En laat eens even een aantal voorbeelden zien.

252
00:11:07,120 --> 00:11:09,780
Even een GPT of wat jullie doen met code.

253
00:11:09,780 --> 00:11:12,140
Bewijs los van je kennis willen we gewoon zien.

254
00:11:12,140 --> 00:11:12,440
Ja.

255
00:11:12,440 --> 00:11:15,740
Heb jij daar nog iets op aan te vullen?

256
00:11:15,740 --> 00:11:16,860
Deze drie sowieso.

257
00:11:16,860 --> 00:11:20,720
Maar wanneer ben je op zoek naar een AI-expert?

258
00:11:21,380 --> 00:11:25,760
Is het vraagstuk die er is, is daar AI voor nodig?

259
00:11:25,760 --> 00:11:28,440
En als het goed is gaat die AI-expert dat ook challengen.

260
00:11:28,440 --> 00:11:29,080
Heel goed.

261
00:11:29,080 --> 00:11:32,060
En in de praktijk gaat kijken van, hé, maar is dit wel de oplossing die je moet hebben?

262
00:11:32,060 --> 00:11:32,940
Ja.

263
00:11:32,940 --> 00:11:36,360
Maar de vraag is van, ik zoek nu een AI-expert, want ik wil dat oplossen met AI.

264
00:11:36,360 --> 00:11:39,640
Is al te veel gefocust op dat vlak?

265
00:11:39,640 --> 00:11:40,520
Eerst stapje terug.

266
00:11:40,520 --> 00:11:40,860
Ja.

267
00:11:40,860 --> 00:11:42,740
Kim, wat jij nog?

268
00:11:42,740 --> 00:11:44,060
Nee, ja, helder.

269
00:11:44,060 --> 00:11:45,540
Ik ben wel benieuwd ook.

270
00:11:45,540 --> 00:11:49,340
Want, nou ja, ik denk dat ondernemers hier echt wat mee kunnen.

271
00:11:49,340 --> 00:11:53,040
Want ik denk dat er zoveel mensen zijn die eigenlijk een beetje vanuit die FOMO denken,

272
00:11:53,040 --> 00:11:57,000
oh, dan ga ik dat nu lekker op mijn LinkedIn toevoegen dat ik ook iets weet van AI.

273
00:11:57,000 --> 00:11:57,460
Ja.

274
00:11:57,460 --> 00:11:59,180
Maar daar schiet je niks mee op.

275
00:11:59,180 --> 00:11:59,680
Nee.

276
00:11:59,680 --> 00:12:00,880
Nog eentje.

277
00:12:00,880 --> 00:12:03,660
Even persoonlijk iets.

278
00:12:03,660 --> 00:12:10,600
In één keer zeg maar, nu met AI en ChatGPT, vooral met ChatGPT generatieve AI,

279
00:12:10,600 --> 00:12:12,720
heb ik alle kennis in mijn broekzak zitten.

280
00:12:12,720 --> 00:12:13,140
Ja.

281
00:12:13,140 --> 00:12:13,820
Denk ik.

282
00:12:13,820 --> 00:12:14,860
Maar daar kom ik zo over terug.

283
00:12:14,860 --> 00:12:18,480
Maar dat voorbeeld, misschien heb ik het in de podcast ook wel eens genoemd.

284
00:12:19,080 --> 00:12:22,420
Mijn zoon, Luc, die mocht ik helpen met wiskunde.

285
00:12:22,420 --> 00:12:24,480
Die had een hele moeilijke wiskundesom.

286
00:12:24,480 --> 00:12:27,080
Normaal gaat hij altijd naar mijn vrouw, naar zijn moeder.

287
00:12:27,080 --> 00:12:30,600
Want die had wel een zeg maar een wiskundeknobbel.

288
00:12:30,600 --> 00:12:31,800
Nee, ik had dat niet.

289
00:12:31,800 --> 00:12:35,780
Maar het was wel spannend, want hij moest echt die uitkomst weten.

290
00:12:35,780 --> 00:12:38,480
En toen zei ik, nou Luc, laat maar, we gaan het gewoon eens kijken.

291
00:12:38,480 --> 00:12:40,360
Dus ik maak dan een foto van die som.

292
00:12:40,360 --> 00:12:42,600
En ik zet hem even in de rol taak output.

293
00:12:42,600 --> 00:12:46,240
En ik zeg, hé, jij bent nu een zeer ervaren docent wiskunde 5 VWO.

294
00:12:46,880 --> 00:12:47,980
Ik laat je dat ik een som zien.

295
00:12:47,980 --> 00:12:49,620
Ik wil dat je die goed uitlegt.

296
00:12:49,620 --> 00:12:52,400
Nou, we weten ondertussen dat die 200 dollar geven.

297
00:12:52,400 --> 00:12:55,600
Of dat dat ook weer passé is even.

298
00:12:55,600 --> 00:12:57,760
Of dat wel of niet helpt, maakt het even niet uit.

299
00:12:57,760 --> 00:12:58,720
Maar...

300
00:12:58,720 --> 00:12:59,980
Dat beneden bedoel je in de prompt, hè?

301
00:12:59,980 --> 00:13:02,740
Je zegt van, ik geef je 200 dollar als je het goede antwoord geeft.

302
00:13:02,840 --> 00:13:05,240
In het begin was dat lachen, maar dat is steeds leuk.

303
00:13:05,240 --> 00:13:09,480
Maar toen zei ik ook wel, ik had hem heel goed geïnstrueerd.

304
00:13:09,480 --> 00:13:10,540
Ik wil eerst het antwoord.

305
00:13:10,540 --> 00:13:15,500
En daarna wil ik dat je in Jip, in Janneke taal, in het tabel, het antwoord toelicht.

306
00:13:15,500 --> 00:13:18,580
Dus ik ga kijken wat er gebeurt.

307
00:13:18,580 --> 00:13:20,120
Mijn zoon was een beetje wantrouwend.

308
00:13:20,120 --> 00:13:23,640
Dus ik zei, Luc, is het antwoord 473?

309
00:13:23,640 --> 00:13:25,040
Nou, hij viel van zich toe.

310
00:13:25,040 --> 00:13:27,300
En hij zei, hoe weet jij dat?

311
00:13:27,300 --> 00:13:29,380
Ik zei, nou Luc, dan ga ik je even haar fijn uitleggen.

312
00:13:29,380 --> 00:13:32,460
En sindsdien ben ik de held thuis.

313
00:13:32,460 --> 00:13:34,920
Maar, nu komt hij naar het heen.

314
00:13:34,920 --> 00:13:36,060
Maar nu had hij vier sommen.

315
00:13:36,060 --> 00:13:37,940
Van de vier, één fout.

316
00:13:37,940 --> 00:13:43,260
Kan je, Tje, heb je überhaupt wel vertrouwen?

317
00:13:43,260 --> 00:13:45,400
Want waarom, kunnen jullie uitleggen?

318
00:13:45,400 --> 00:13:46,100
Jullie zijn experts.

319
00:13:46,100 --> 00:13:50,060
Wat, leg eens een klein beetje uit, wat gebeurt er nou onder die motorkap?

320
00:13:50,060 --> 00:13:50,400
Ja.

321
00:13:50,400 --> 00:13:54,160
Als ik dat, die prompt ingeef.

322
00:13:54,160 --> 00:13:56,180
Misschien stuur ik hem wel niet genoeg.

323
00:13:56,180 --> 00:13:58,220
Misschien had ik wel controle maar vragen moeten stellen.

324
00:13:58,900 --> 00:14:04,060
Maar als je gewoon die som ingooit, waarom is de ene keer goed en de andere keer fout?

325
00:14:04,060 --> 00:14:05,460
En wat is jullie advies?

326
00:14:05,460 --> 00:14:07,800
Ja, nou laat ik beginnen bij het advies.

327
00:14:07,800 --> 00:14:08,860
Dan gaan we heel goed opletten.

328
00:14:08,860 --> 00:14:09,220
Ja.

329
00:14:09,220 --> 00:14:16,800
Als jij een schroef ergens in moet draaien, gebruik je dan een hamer of een schroevendraaier?

330
00:14:16,800 --> 00:14:18,280
Een schroevendraaier.

331
00:14:18,280 --> 00:14:18,520
Ja.

332
00:14:18,520 --> 00:14:20,280
Dat hangt er vanaf wat je moet is die dag.

333
00:14:20,280 --> 00:14:22,500
Ja, precies.

334
00:14:22,500 --> 00:14:23,360
En wat ik heb.

335
00:14:23,360 --> 00:14:24,540
Ja.

336
00:14:24,540 --> 00:14:28,320
Maar je hebt en de schroevendraaier en de hamer.

337
00:14:28,400 --> 00:14:29,220
Dan kies ik de schroevendraaier.

338
00:14:29,220 --> 00:14:29,400
Ja.

339
00:14:29,400 --> 00:14:31,620
Waarom kies je voor een rekensom?

340
00:14:31,620 --> 00:14:32,920
ChatGPT.

341
00:14:32,920 --> 00:14:35,300
Een taalmachine in plaats van een rekenmachine?

342
00:14:35,780 --> 00:14:39,560
Dus mijn eerste advies zou zijn, gebruik een rekenmachine.

343
00:14:39,560 --> 00:14:40,500
Nee, maar wacht.

344
00:14:40,500 --> 00:14:40,980
Oké.

345
00:14:40,980 --> 00:14:41,560
Ja.

346
00:14:41,560 --> 00:14:45,260
En ik snap het, want je gaat voor de weg van de minste weerstand.

347
00:14:45,260 --> 00:14:46,840
Want je zegt van, hé, ik maak een foto.

348
00:14:46,840 --> 00:14:48,900
Want het staat natuurlijk in tekst geschreven.

349
00:14:48,900 --> 00:14:50,420
Hoef je dat niet meer te doen.

350
00:14:50,420 --> 00:14:52,560
Hoef je niet meer in de sommen op te schrijven.

351
00:14:52,560 --> 00:14:57,440
Dus ik snap dat je het aan het taalmodel gaat vragen.

352
00:14:57,440 --> 00:15:02,860
Dus stel, we gebruiken toch het taalmodel voor iets waar die niet voor gemaakt is.

353
00:15:02,860 --> 00:15:11,860
Want hij is gemaakt om taal, dus woord voor woord eigenlijk, te voorspellen wat het meest logische volgende woord is.

354
00:15:11,980 --> 00:15:13,200
De sommen zijn wel goed.

355
00:15:13,200 --> 00:15:14,860
Ja, dat kan.

356
00:15:14,860 --> 00:15:19,300
Maar als je hem nog een keer vraagt, kan hij het misschien niet goed hebben.

357
00:15:19,300 --> 00:15:19,740
Dat was het.

358
00:15:19,740 --> 00:15:20,640
Dat was het, toch?

359
00:15:20,640 --> 00:15:20,940
Ja.

360
00:15:20,940 --> 00:15:26,040
En dat heeft te maken met dat het, het is niet dat hij het volgende woord voorspelt.

361
00:15:26,040 --> 00:15:33,000
Nee, hij voorspelt eigenlijk een hele lijst van volgende woorden die hij in kan vullen.

362
00:15:33,000 --> 00:15:35,040
En daar moet hij er eentje van uitpakken.

363
00:15:35,040 --> 00:15:38,140
En dat is niet de bovenste.

364
00:15:38,140 --> 00:15:41,200
Dat is afhankelijk van de instellingen.

365
00:15:41,340 --> 00:15:46,780
En in ChatGPT, die heeft zeg maar een sausje eroverheen.

366
00:15:46,780 --> 00:15:48,200
Dus hij heeft standaard instellingen.

367
00:15:48,200 --> 00:15:51,380
Dus hij zegt van nou, ik doe even zo.

368
00:15:51,380 --> 00:15:51,900
Gok.

369
00:15:51,900 --> 00:15:52,480
Gok.

370
00:15:52,480 --> 00:16:02,160
Van de bovenste 25 mag je met een bepaalde willekeurigheid, mag je daar eentje van kiezen.

371
00:16:02,160 --> 00:16:02,540
Ja.

372
00:16:02,540 --> 00:16:08,700
En zo kan je dus zeg maar, ja, richting het verkeerde antwoord gaan.

373
00:16:08,920 --> 00:16:12,360
Want hij pakt iedere keer een ander woord, een ander woord, een ander woord.

374
00:16:12,360 --> 00:16:16,200
Dus het is nooit twee keer hetzelfde.

375
00:16:16,200 --> 00:16:18,360
En hij is niet gemaakt om te rekenen.

376
00:16:18,360 --> 00:16:21,360
En ze proberen dat in de modellen te trainen.

377
00:16:21,360 --> 00:16:31,080
Dus bijvoorbeeld van Deep Seek is het bijvoorbeeld heel helder dat zij ook echt wiskundige problemen hebben gestopt in de trainingsdata.

378
00:16:31,220 --> 00:16:35,500
Waarbij ze ook dat hebben uitgerekend en ook niet te doorrekenen.

379
00:16:35,500 --> 00:16:38,000
Omdat je dat uit wiskundige problemen kan je doorrekenen.

380
00:16:39,120 --> 00:16:42,340
Maar daar zijn eigenlijk de taalmodellen gewoon niet voor gemaakt.

381
00:16:42,340 --> 00:16:46,900
Dus dat hij het goed doet, is eigenlijk heel mooi meegenomen.

382
00:16:46,900 --> 00:16:48,980
Maar je kan daar niet op vertrouwen.

383
00:16:48,980 --> 00:16:51,720
Heb ik er nog eentje.

384
00:16:51,720 --> 00:16:53,080
Dit was wel heel leuk.

385
00:16:53,080 --> 00:16:54,400
En die kwam van mijn zoon zelf.

386
00:16:54,400 --> 00:16:58,760
Dus dat vertrouwen is dan een beetje weg.

387
00:16:59,000 --> 00:17:00,560
Dus je moet het blijven controleren.

388
00:17:00,560 --> 00:17:01,880
Maar dan ga ik je de volgende.

389
00:17:01,880 --> 00:17:04,440
Wat hij toen deed.

390
00:17:04,440 --> 00:17:08,140
En mijn dochter is ook heel erg mee aan het stoeien nu.

391
00:17:08,140 --> 00:17:09,520
Want ze wil het wel zelf doen.

392
00:17:09,520 --> 00:17:10,540
En ze zien dat het fout gaat.

393
00:17:10,540 --> 00:17:11,220
En daar ben ik wel blij mee.

394
00:17:11,220 --> 00:17:14,740
Want luiheid en niet meer kritisch nadenken, dat vind ik echt het grootste gevaar.

395
00:17:14,740 --> 00:17:16,440
En hij kwam zelf mee.

396
00:17:16,440 --> 00:17:17,400
Oké, dat antwoord.

397
00:17:17,400 --> 00:17:18,300
Weet wat ik nu doe, zei hij.

398
00:17:18,300 --> 00:17:20,180
Want ik weet soms niet.

399
00:17:20,180 --> 00:17:21,500
Ik zie het niet.

400
00:17:21,500 --> 00:17:23,420
Ik weet niet hoe die er toe komt.

401
00:17:23,420 --> 00:17:25,680
Dus hij upload nu de som.

402
00:17:25,680 --> 00:17:27,819
Hij geeft het antwoord.

403
00:17:28,160 --> 00:17:33,820
En laat ChatGPT uitleggen hoe hij tot dat antwoord is gekomen.

404
00:17:33,820 --> 00:17:35,780
Gebruikt hij hem dan wel goed?

405
00:17:35,780 --> 00:17:39,740
Of had hij dan ook weer de schroeven draaien moeten gebruiken?

406
00:17:39,740 --> 00:17:41,620
Volgens mij hebben we hier gewoon dezelfde uitdaging.

407
00:17:41,620 --> 00:17:42,400
Dezelfde uitdaging.

408
00:17:42,400 --> 00:17:44,340
Het blijft dezelfde uitdaging.

409
00:17:44,340 --> 00:17:46,160
Nou zijn er wel taalmodellen.

410
00:17:46,160 --> 00:17:47,280
Ik weet niet of je taalmodellen moet noemen.

411
00:17:47,280 --> 00:17:49,180
Maar ik ben even de naam kwijt voor de wiskundige.

412
00:17:49,180 --> 00:17:53,800
Dat is er al jaren.

413
00:17:53,800 --> 00:17:56,660
Je bedoelt Wolfram A.

414
00:17:56,660 --> 00:17:57,260
Ja, dankjewel.

415
00:17:57,320 --> 00:17:57,880
Wolfram Alpha.

416
00:17:57,880 --> 00:18:00,760
Ja, we gaan wel even op zoek.

417
00:18:00,760 --> 00:18:02,560
Wolfram Alpha.

418
00:18:02,560 --> 00:18:03,760
Ja, volgens mij die inderdaad.

419
00:18:03,760 --> 00:18:08,360
Als je daar inderdaad, daarmee aan de slag gaat voor wiskundige vraagstukken.

420
00:18:08,360 --> 00:18:09,660
Dat is wel een betere match.

421
00:18:09,660 --> 00:18:11,440
Ik heb daar een aanvullende vraag op.

422
00:18:11,440 --> 00:18:13,320
Want wat Joop net zei.

423
00:18:13,320 --> 00:18:15,300
Dus een taalmodel is voor taal.

424
00:18:15,300 --> 00:18:17,280
Maar wat je nu bijvoorbeeld gisteren zag.

425
00:18:17,360 --> 00:18:23,600
is dat natuurlijk OpenAI nu Image Generation met GPT 4.0 heeft.

426
00:18:23,600 --> 00:18:24,740
Wat vinden jullie daarvan?

427
00:18:24,740 --> 00:18:28,000
Dat mensen willen toch soort van alle functies in één AI tool.

428
00:18:28,000 --> 00:18:29,380
Is dat een goed iets of niet?

429
00:18:31,140 --> 00:18:32,100
Ja, ik vind het wel handig.

430
00:18:32,100 --> 00:18:39,220
Of het daarmee een heel groot model gaat worden die heel veel complexiteit en in heel veel dingen een beetje goed is.

431
00:18:39,220 --> 00:18:40,920
Dat ga je wel krijgen.

432
00:18:40,920 --> 00:18:42,660
Want je kan nooit in alles goed zijn.

433
00:18:43,520 --> 00:18:45,020
Ik vind het persoonlijk zelf wel fijn.

434
00:18:45,020 --> 00:18:47,180
Want ik heb één plek waar ik direct kan.

435
00:18:47,180 --> 00:18:50,180
En als ik dan moet uitwijken voor hele specifieke use cases.

436
00:18:50,180 --> 00:18:52,980
Dan vind ik het fijn om één plek te hebben waar ik naartoe kan.

437
00:18:52,980 --> 00:18:54,620
En dan uit te wijken voor specifieke vallen.

438
00:18:54,620 --> 00:18:57,720
Maar dus wel met waarschijnlijk iets middelmatigere uitkomsten.

439
00:18:57,720 --> 00:18:59,160
Ja.

440
00:18:59,160 --> 00:19:03,660
Joop denkt ondertussen.

441
00:19:03,660 --> 00:19:04,440
Ja, ik denk zeker.

442
00:19:04,440 --> 00:19:07,800
Ja, ik vind het wel een lastige.

443
00:19:07,800 --> 00:19:08,900
Omdat, kijk.

444
00:19:08,900 --> 00:19:11,740
We praten eigenlijk over.

445
00:19:12,560 --> 00:19:13,740
Het zijn één model.

446
00:19:13,740 --> 00:19:17,940
Het kan zijn dat zij het onder water hebben getraind.

447
00:19:17,940 --> 00:19:19,400
Al zijn er twee modellen.

448
00:19:19,400 --> 00:19:22,120
Waarbij er veel meer een intentie, zeg maar.

449
00:19:22,120 --> 00:19:26,440
Hoe moet ik dat zeggen?

450
00:19:26,440 --> 00:19:29,440
Met de prompt die je geeft.

451
00:19:29,440 --> 00:19:31,280
Er wordt gezien van.

452
00:19:31,280 --> 00:19:32,460
Moet ik nu tekst genereren?

453
00:19:32,460 --> 00:19:33,620
Moet ik plaatjes genereren?

454
00:19:33,620 --> 00:19:37,060
En als ik plaatjes genereer, ga ik gewoon naar het plaatjesmodel.

455
00:19:37,060 --> 00:19:39,940
Zo zijn er allerlei taalmodellen.

456
00:19:39,940 --> 00:19:42,540
Die ook uit een mixture of experts bijvoorbeeld bestaat.

457
00:19:42,540 --> 00:19:45,540
Dat zijn eigenlijk allemaal kleine taalmodelletjes.

458
00:19:45,540 --> 00:19:48,160
Die antwoorden geven.

459
00:19:48,160 --> 00:19:48,660
Ja.

460
00:19:48,660 --> 00:19:53,120
Waarbij je denkt dat je tegen één model aan het praten bent.

461
00:19:53,120 --> 00:19:56,200
Dus het hoeft helemaal niet problematisch te zijn.

462
00:19:56,200 --> 00:20:00,000
Dat er best hele gespecialiseerde delen getraind kunnen zijn.

463
00:20:00,000 --> 00:20:06,260
Alleen voor jou, voor ons, als wij er tegenaan praten, is het een heel handig gebruik inderdaad.

464
00:20:06,260 --> 00:20:07,260
In je user interface.

465
00:20:07,260 --> 00:20:07,640
Ja.

466
00:20:07,640 --> 00:20:08,380
Ja.

467
00:20:08,380 --> 00:20:10,080
Ik heb nog een vraag.

468
00:20:11,840 --> 00:20:13,540
De olifant in de kamer altijd.

469
00:20:13,540 --> 00:20:15,340
Daar zal Kim ook mee last hebben als je een training hebt.

470
00:20:15,340 --> 00:20:16,860
Ja.

471
00:20:16,860 --> 00:20:18,200
Dat was van een docent.

472
00:20:18,200 --> 00:20:20,160
HBO-opleidingen.

473
00:20:20,160 --> 00:20:23,000
Alle studenten gebruiken ChatGPT.

474
00:20:23,000 --> 00:20:23,920
Ik heb het al eens gevraagd.

475
00:20:23,920 --> 00:20:26,240
Ga ik naar een HBO?

476
00:20:26,240 --> 00:20:27,980
Ik mag ook vaak college geven.

477
00:20:27,980 --> 00:20:29,580
En dan zeg ik, gebruik jullie CoPilot.

478
00:20:29,580 --> 00:20:31,420
Nou, geen enkele student gebruikt CoPilot.

479
00:20:31,420 --> 00:20:32,320
Klopt.

480
00:20:32,320 --> 00:20:33,880
Nou, ook niet van gehoord.

481
00:20:33,880 --> 00:20:34,820
ChatGPT.

482
00:20:35,220 --> 00:20:40,460
Jongens, als ChatGPT er één uur uit ligt, dan is heel die HBO, al die studenten hebben onderlegd.

483
00:20:40,460 --> 00:20:40,760
Alle.

484
00:20:40,760 --> 00:20:41,560
Allemaal.

485
00:20:41,560 --> 00:20:43,300
En die gaan ermee werken.

486
00:20:43,300 --> 00:20:44,400
Die leren daarmee werken.

487
00:20:44,400 --> 00:20:45,740
Maar er is één uitdaging.

488
00:20:45,740 --> 00:20:46,800
Dan zeg ik een docent.

489
00:20:46,800 --> 00:20:49,020
Wij mogen het zelf niet gebruiken.

490
00:20:49,020 --> 00:20:49,340
Ja.

491
00:20:49,340 --> 00:20:51,500
Want wij gebruiken CoPilot.

492
00:20:51,500 --> 00:21:00,860
Martin, hoe kan ik mijn legal officer overtuigen dat ik gewoon veilig kan werken met ChatGPT?

493
00:21:00,860 --> 00:21:05,140
Want het is ook ineens content wat niet eens bedrijfkritisch is.

494
00:21:05,140 --> 00:21:06,720
Het is gewoon algemeen.

495
00:21:06,720 --> 00:21:08,140
Ik wil gewoon...

496
00:21:08,140 --> 00:21:12,640
Ik raak weg bij die student.

497
00:21:12,640 --> 00:21:14,820
Want die gaat andere tools gebruiken dan ik.

498
00:21:14,820 --> 00:21:16,500
En ik moet ze daarin trainen.

499
00:21:16,500 --> 00:21:21,740
En er is zelfs weerstand bij docenten dat ze zeggen, ja, maar dan gaan we het maar thuis gebruiken.

500
00:21:21,740 --> 00:21:24,000
En dan doen ze het zonder opleiding.

501
00:21:24,000 --> 00:21:28,180
Wat is eigenlijk je advies naar de besturen van deze HBO-opleiders?

502
00:21:28,180 --> 00:21:29,360
En ik hoop dat ze allemaal luisteren.

503
00:21:29,360 --> 00:21:34,980
Ja, mijn advies zou zijn dat je, wat mij betreft, zeg maar,

504
00:21:34,980 --> 00:21:38,960
vertel je tegen zo'n docent ook niet of hij een balpen moet gebruiken of een vulpen.

505
00:21:38,960 --> 00:21:39,740
Nee.

506
00:21:40,780 --> 00:21:44,180
Alleen heb je, denk ik, hier te maken met licenties ook.

507
00:21:44,180 --> 00:21:51,220
Dus ze zullen als school bijvoorbeeld, als opleiding, misschien een contract hebben met Microsoft.

508
00:21:51,220 --> 00:21:57,920
Waardoor je copilot hebt en dat je voor ChatGPT aparte licenties moet gaan af.

509
00:21:57,920 --> 00:22:00,440
Ja, dus het zal een geldkwestie zijn.

510
00:22:00,440 --> 00:22:02,420
Mag ik hier, want dat vind ik echt altijd.

511
00:22:02,500 --> 00:22:05,460
Die geldkwestie met die business case is zo snel gemaakt.

512
00:22:05,460 --> 00:22:07,080
Die 20 dollar per maand.

513
00:22:07,080 --> 00:22:10,160
Ja, nee, dat denk ik ook.

514
00:22:10,160 --> 00:22:14,960
Maar goed, als jij 25 verschillende tools hebt op dit moment,

515
00:22:14,960 --> 00:22:17,760
waar overal een licentie aan gekoppeld zit, dan gaat dat toch ook wel beter.

516
00:22:17,760 --> 00:22:19,100
Dat klopt.

517
00:22:19,100 --> 00:22:21,580
En uiteindelijk, geld speelt altijd een rol.

518
00:22:21,720 --> 00:22:24,760
Maar kan je veilig werken, jullie zijn, ik zit er bij spelen.

519
00:22:24,760 --> 00:22:28,500
Kan je veilig werken met Claude of met ChatGPT?

520
00:22:28,500 --> 00:22:29,180
Uiteraard.

521
00:22:29,180 --> 00:22:30,500
Kan je veilig werken met ChatGPT?

522
00:22:30,500 --> 00:22:30,840
Zeker.

523
00:22:30,840 --> 00:22:31,620
Antwoord is ja.

524
00:22:31,620 --> 00:22:40,140
Ja, als jij met ChatGPT de Teams of de Enterprise licentie hebt, die zijn, denk ik,

525
00:22:40,140 --> 00:22:42,960
ja, ik ben geen jurist, maar dat zit op punten en komma's.

526
00:22:42,960 --> 00:22:44,680
Hetzelfde natuurlijk als dat je via Microsoft.

527
00:22:44,680 --> 00:22:48,920
Microsoft gebruikt onder water gewoon de GPT-modellen die OpenAI ook gebruikt.

528
00:22:48,920 --> 00:22:52,780
Dus qua model zit er niet of nauwelijks verschil.

529
00:22:52,780 --> 00:22:54,380
Dus daar heeft het niks mee te maken.

530
00:22:54,380 --> 00:22:59,280
Dus het gaat alleen maar over licentievoorwaarden, policies, dat soort zaken.

531
00:22:59,280 --> 00:23:02,840
Ik kan dan zeggen policies en niet weten hoe het gebruikt wordt,

532
00:23:02,840 --> 00:23:04,720
maar de educatie ook nog moeten doen.

533
00:23:04,720 --> 00:23:09,220
Van, hé, je geeft aan, Martin, het is niet eens gevoelige informatie.

534
00:23:09,220 --> 00:23:11,320
Het zijn algemene informatie die je erin stopt.

535
00:23:11,320 --> 00:23:15,740
Ja, maar dan maakt het ook niet uit of je copilot of ChatGPT gebruikt.

536
00:23:15,740 --> 00:23:16,400
Dat zou het niet uitmaken.

537
00:23:16,400 --> 00:23:17,620
Nee, nee.

538
00:23:17,880 --> 00:23:20,040
Dus je kan het veilig gebruiken.

539
00:23:20,040 --> 00:23:20,320
Zeker.

540
00:23:20,320 --> 00:23:24,640
Maar je moet gewoon wel even, ik denk dat heel veel docenten deze podcast gaan terugluisteren.

541
00:23:24,640 --> 00:23:25,960
En dat ze die even sturen.

542
00:23:25,960 --> 00:23:28,140
Even een transcript met een andere AI-tool.

543
00:23:28,140 --> 00:23:28,400
Maar je triggert me wel.

544
00:23:28,400 --> 00:23:29,880
Ik had er zelf niet eens over nagedacht.

545
00:23:29,880 --> 00:23:31,580
Misschien is het wel een kostenkwestie.

546
00:23:31,580 --> 00:23:31,780
Ja.

547
00:23:31,780 --> 00:23:33,240
Van, hé, we willen dat.

548
00:23:33,240 --> 00:23:35,960
En dan kijken we elkaar naar en denken, hé.

549
00:23:35,960 --> 00:23:39,680
En dat zeg ik ook wel eens tegen, ik hoor dat wel eens vaker.

550
00:23:39,680 --> 00:23:41,020
Dan train ik natuurlijk heel veel.

551
00:23:41,900 --> 00:23:43,940
En dan, ja nee, we mogen het niet gebruiken.

552
00:23:43,940 --> 00:23:46,560
En dan zeg ik, en dan zeg ik, joh, dat is één ding.

553
00:23:46,560 --> 00:23:52,240
Maar als jij dadelijk in de B2C, je werkt nu bij een bank en je mag het niet gebruiken.

554
00:23:52,240 --> 00:23:55,980
Maar je zet jezelf nu al tweeënhalf jaar op achterstand.

555
00:23:56,440 --> 00:24:00,040
Want als jij dadelijk bij een, ik heb het ook eerder gezegd, bij dokter Leenarts komt.

556
00:24:00,040 --> 00:24:01,000
Of bij een ander bedrijf.

557
00:24:01,000 --> 00:24:02,960
En waar iedereen zichzelf al heeft gekloond.

558
00:24:02,960 --> 00:24:03,840
En GPT's gebouwd.

559
00:24:03,840 --> 00:24:06,440
En dan is de eerste vraag, mag ik jouw GPT's zien?

560
00:24:06,440 --> 00:24:08,180
En als je dan zegt, wat bedoel je?

561
00:24:08,180 --> 00:24:08,600
Ja.

562
00:24:08,600 --> 00:24:11,460
Dan kan je je, kan je wel opdoeken.

563
00:24:11,460 --> 00:24:11,820
Ja.

564
00:24:11,820 --> 00:24:14,160
Dus ik denk ook, als je dit luistert.

565
00:24:14,160 --> 00:24:17,180
En dan denk ik dan, maar goed, ik kan nooit in de portemonnee kijken.

566
00:24:17,180 --> 00:24:18,680
Jongens, als, ja.

567
00:24:18,680 --> 00:24:21,320
Ik had het laatst bij wat studenten.

568
00:24:21,320 --> 00:24:23,220
En ik heb ze laten zien wat er allemaal kon.

569
00:24:24,680 --> 00:24:29,680
Ik vertelde ze ook dat personagpt.com te koop staat voor 50.000 dollar.

570
00:24:29,680 --> 00:24:33,460
Nou, toen gingen al die studenten, die hadden allemaal meteen business cases.

571
00:24:33,460 --> 00:24:36,120
En die zeiden toen, jongens, dan maar vier bie minder per maand.

572
00:24:36,120 --> 00:24:36,600
Ja.

573
00:24:36,600 --> 00:24:39,780
Maar ik denk ook, als je professional bent en je krijgt het niet van je baas.

574
00:24:39,780 --> 00:24:42,120
Dan is het, jongens, even één Netflix serie minder.

575
00:24:42,120 --> 00:24:45,260
Ja, je hebt dus zo echt die 20 dollar per maand.

576
00:24:45,260 --> 00:24:48,880
Ik kan me niet indenken dat je denkt, nee, die ga ik er niet uithalen.

577
00:24:48,880 --> 00:24:51,760
Nee, wat bizar is, Kim, in mijn trainingen doe jij dat even hard.

578
00:24:51,760 --> 00:24:52,740
Soms geef ik ook trainingen.

579
00:24:53,340 --> 00:24:55,140
En dan hebben bijvoorbeeld twee mensen maar een betaald account.

580
00:24:55,140 --> 00:24:56,300
In de ochtend.

581
00:24:56,300 --> 00:24:56,960
Ja.

582
00:24:56,960 --> 00:24:57,920
Na de lunch.

583
00:24:57,920 --> 00:24:59,100
Na de lunch.

584
00:24:59,100 --> 00:24:59,440
Iedereen.

585
00:24:59,440 --> 00:25:04,500
Dan zien ze gewoon hoe efficiënt het kan zijn en dat ze dat missen.

586
00:25:04,500 --> 00:25:08,200
En ik denk ook dat wat de meeste mensen vergeten is dat je kan het gewoon iedere maand opzeggen.

587
00:25:08,200 --> 00:25:10,540
Weet je, als je na een maand denkt, no, ik haal het er toch niet uit.

588
00:25:10,540 --> 00:25:11,520
Zeg je het weer op?

589
00:25:11,520 --> 00:25:11,920
Ja.

590
00:25:11,920 --> 00:25:13,720
Daarom denk ik niet dat dat alleen kost is.

591
00:25:13,840 --> 00:25:17,680
Het is ook een stukje strategie, bekendheid, het risico horen.

592
00:25:17,680 --> 00:25:20,080
En vooral in onderwijs is dit natuurlijk.

593
00:25:20,080 --> 00:25:20,320
Ja.

594
00:25:20,320 --> 00:25:24,520
Is ook van welke use cases mag ik het wel voor gebruiken en niet.

595
00:25:24,520 --> 00:25:27,180
Want als het voor de basis use cases is, is dat geen probleem.

596
00:25:27,180 --> 00:25:27,500
Ja.

597
00:25:27,560 --> 00:25:30,240
Als je bedrijfsgevoelige data hebt, dan moet je kijken naar licentievoorwaarden.

598
00:25:30,240 --> 00:25:32,820
Dus dan is het een stukje kennis die nodig is, naast de kosten die je met zich meebrengt.

599
00:25:32,820 --> 00:25:32,960
Ja.

600
00:25:32,960 --> 00:25:34,640
Maar het is ook een stukje kennis die je er hebt.

601
00:25:34,640 --> 00:25:41,360
Wat we steeds vaker, tenminste ik in ieder geval in de praktijk, tegenkomen is, heb je te maken met algemene data die publiek bekend is.

602
00:25:41,360 --> 00:25:44,560
En je wilt daarmee de openbare AI oplossingen gebruiken.

603
00:25:44,560 --> 00:25:45,200
Doe.

604
00:25:45,200 --> 00:25:45,220
Doe.

605
00:25:45,220 --> 00:25:45,700
Be my guest.

606
00:25:45,700 --> 00:25:45,980
Ja.

607
00:25:45,980 --> 00:25:46,500
Vooral doen.

608
00:25:46,500 --> 00:25:47,000
Ja.

609
00:25:47,000 --> 00:25:50,800
Ga je naar bedrijfsgevoelige informatie, dan gaat het wat vraagstukken meebrengen.

610
00:25:50,800 --> 00:25:54,400
Laat staan, laat het met leerlingen, dat soort zaken te maken te hebben.

611
00:25:54,820 --> 00:25:56,080
Dan zal je er nog meer op moeten gaan letten.

612
00:25:56,080 --> 00:25:57,460
Dus er zal een gelaagdheid zitten.

613
00:25:57,460 --> 00:25:58,040
Heel goed.

614
00:25:58,040 --> 00:26:00,660
En daar een strategie voor hebben en een beleid voor hebben.

615
00:26:00,660 --> 00:26:01,180
Heel goed.

616
00:26:01,180 --> 00:26:02,840
En dat is er in veel gevallen niet.

617
00:26:02,840 --> 00:26:04,300
En die kan je maken.

618
00:26:04,300 --> 00:26:11,300
Je kan bijvoorbeeld zeggen van, we maken drie niveaus van, laten we zo, soort van geheimhoudingsniveaus.

619
00:26:11,300 --> 00:26:11,640
Ja.

620
00:26:11,640 --> 00:26:15,640
Die zeggen van, waar je je content in kan opdelen.

621
00:26:15,640 --> 00:26:16,060
Ja.

622
00:26:16,060 --> 00:26:18,860
En dat je zegt van, nou, level drie doen we niet.

623
00:26:18,860 --> 00:26:21,280
Level twee moet je heel goed over nadenken.

624
00:26:21,280 --> 00:26:23,820
Level één, gebruik het gewoon lekker.

625
00:26:24,120 --> 00:26:25,680
Er is al gewoon wetgeving voor.

626
00:26:25,680 --> 00:26:26,920
AVG en dergelijke.

627
00:26:26,920 --> 00:26:30,660
Het data hart gaat hier harder van kloppen, want eigenlijk moet je dus weten, wat is met dataklassificatie?

628
00:26:30,660 --> 00:26:32,300
Welke data stoppen we erin?

629
00:26:32,300 --> 00:26:33,460
En waar hebben we het hier over?

630
00:26:33,460 --> 00:26:33,740
Ja.

631
00:26:33,740 --> 00:26:35,460
Ik heb wel daar nog een aanvullende vraag over.

632
00:26:35,460 --> 00:26:38,580
Want je hoort natuurlijk veel van, oh, je hebt allerlei instellingen in die AI-tools.

633
00:26:38,580 --> 00:26:42,100
Dat je het uit kan zetten, dat je data getraind of gebruikt wordt voor de training.

634
00:26:42,100 --> 00:26:44,440
Is dat echt zo?

635
00:26:44,440 --> 00:26:46,920
Wat zet je exact uit met zo'n instelling?

636
00:26:48,620 --> 00:26:52,260
Dat geldt dan voor de betaalde versie, want in de team staat het al uit, in de enterprise

637
00:26:52,260 --> 00:26:52,700
staat het al uit.

638
00:26:52,700 --> 00:26:52,900
Klopt.

639
00:26:52,900 --> 00:26:56,020
Dus in de betaalde versie en in de gratis versie datadelen uit staat.

640
00:26:56,020 --> 00:26:57,260
Dus wat zet je dan uit?

641
00:26:57,260 --> 00:26:57,680
Precies.

642
00:26:57,680 --> 00:26:59,900
En is het dan helemaal veilig?

643
00:26:59,900 --> 00:27:00,820
Ja.

644
00:27:01,920 --> 00:27:05,980
Wat je uitzet is dat ze je data dus niet gebruiken om te trainen.

645
00:27:05,980 --> 00:27:13,320
Dus bij een volgende versie, de taalmodellen hebben gewoon teksten nodig om daarom getraind

646
00:27:13,320 --> 00:27:13,700
te worden.

647
00:27:13,700 --> 00:27:16,280
Jouw tekst zit niet in die trainingsset.

648
00:27:16,280 --> 00:27:18,860
En dat is wat je uitzet.

649
00:27:18,860 --> 00:27:19,120
Ja.

650
00:27:19,120 --> 00:27:22,600
Wat aan blijft staan is natuurlijk je historie.

651
00:27:22,600 --> 00:27:27,180
En als je dat ook niet zou willen, moet je dat ook uitzetten.

652
00:27:29,480 --> 00:27:32,980
Dus al je chats, die blijven dan bestaan.

653
00:27:32,980 --> 00:27:36,200
Dus dat kan mogelijk een probleem zijn.

654
00:27:36,200 --> 00:27:36,900
Weet ik niet.

655
00:27:36,900 --> 00:27:41,760
Het hangt helemaal van je vraag af en wat je deelt en waar het over gaat.

656
00:27:41,760 --> 00:27:45,320
Maar die is in principe alleen voor jou beschikbaar.

657
00:27:45,320 --> 00:27:53,640
Maar het niet trainen betekent dat jouw gegevens niet in de volgende versie zitten.

658
00:27:53,640 --> 00:27:57,360
En dat is een vraag die ik dus heel vaak krijg tijdens een training.

659
00:27:57,960 --> 00:27:59,020
Maar is het dan helemaal veilig?

660
00:27:59,020 --> 00:28:00,660
Kunnen we dan nu alles delen met AI?

661
00:28:00,660 --> 00:28:01,840
Ja, nee.

662
00:28:01,840 --> 00:28:02,260
Ik zou zo niet.

663
00:28:02,260 --> 00:28:05,840
Maar zou jij alles delen met Martin?

664
00:28:05,840 --> 00:28:08,680
Nou, met Martin is dan weer gewoon al Martin.

665
00:28:08,680 --> 00:28:15,220
Maar ik vind het wel, want ik denk dat je, zeker in de marketing, heb je natuurlijk ook

666
00:28:15,220 --> 00:28:17,080
een beetje een grijs gebied qua data.

667
00:28:18,100 --> 00:28:20,340
En ik denk dat veel teams dat lastig vinden.

668
00:28:20,340 --> 00:28:22,260
Ja, maar daar moet je het dus ook over hebben.

669
00:28:22,260 --> 00:28:24,240
En daar is geen alles of niks in.

670
00:28:24,240 --> 00:28:26,920
Ja, tenminste, niks kan je zeggen.

671
00:28:26,920 --> 00:28:29,480
Maar dan kom je op het verhaal van Martin uit.

672
00:28:29,480 --> 00:28:31,140
Ja, dan ga je gewoon hartstikke achterlopen.

673
00:28:31,140 --> 00:28:34,620
Dus maak daar gewoon duidelijke afspraken over.

674
00:28:34,620 --> 00:28:37,520
En ga dat met elkaar aan, die gesprekken.

675
00:28:37,520 --> 00:28:42,520
En wat zou dan inderdaad die niveaus zijn waarin je je content indeelt?

676
00:28:42,520 --> 00:28:46,120
En ik denk dat je die, zeg maar, op conceptueel niveau heel makkelijk kan zeggen.

677
00:28:46,120 --> 00:28:50,320
Die zegt, ja, financiële gegevens gaan we gewoon nooit delen.

678
00:28:50,320 --> 00:28:51,440
In welke tool dan ook.

679
00:28:51,440 --> 00:28:53,100
En met welke licentievoorwaarden dan ook.

680
00:28:53,100 --> 00:28:55,100
Alleen op de laatste dag bij je werkgever.

681
00:28:55,100 --> 00:28:57,980
Grapje, niet doen, niet doen.

682
00:28:57,980 --> 00:28:59,520
Anonimiseren.

683
00:28:59,520 --> 00:29:01,240
Mogelijk.

684
00:29:01,240 --> 00:29:05,360
En welke tip ik ook kreeg, is dat bij bedrijven die gaan een keer, elke maand schoon ze het op.

685
00:29:05,360 --> 00:29:07,660
En dan haal ze gewoon de data weg.

686
00:29:07,660 --> 00:29:08,700
En dan maken ze afspraken.

687
00:29:08,700 --> 00:29:09,820
Maar dat is eigenlijk het belangrijkste.

688
00:29:09,820 --> 00:29:12,460
Gewoon afspraken maken over de type data.

689
00:29:13,200 --> 00:29:14,200
Hoe gevoelig is het?

690
00:29:14,200 --> 00:29:15,880
Daar afspraken over maken.

691
00:29:15,880 --> 00:29:17,100
En ik vind het goed wat jij zei, Niels.

692
00:29:17,100 --> 00:29:19,200
Ga afspraken maken.

693
00:29:19,200 --> 00:29:21,420
Hoe kunnen we het wel verantwoordelijk gebruiken?

694
00:29:21,420 --> 00:29:22,800
In plaats van één ding.

695
00:29:22,800 --> 00:29:24,600
Bam, gewoon keihard hak in het zand.

696
00:29:24,600 --> 00:29:25,860
Je mag het gewoon niet gebruiken.

697
00:29:25,860 --> 00:29:26,180
Punt.

698
00:29:26,180 --> 00:29:27,520
En dan zonder discussie.

699
00:29:27,520 --> 00:29:28,660
Dus dat is denk ik.

700
00:29:28,660 --> 00:29:29,780
Maar hebben we meteen.

701
00:29:29,780 --> 00:29:31,400
Even een eerlijke mening.

702
00:29:31,400 --> 00:29:32,460
Eerlijke mening.

703
00:29:32,460 --> 00:29:34,460
AI geletterdheid.

704
00:29:34,460 --> 00:29:37,360
Heb jij je cursus al gedaan?

705
00:29:37,360 --> 00:29:39,160
Ben jij AI geletterd?

706
00:29:39,160 --> 00:29:40,820
Heb je je diploma?

707
00:29:41,600 --> 00:29:43,120
Kom maar door met dat certificaat.

708
00:29:43,120 --> 00:29:44,540
Heb je het certificaat al gehaald?

709
00:29:44,540 --> 00:29:46,040
Ik weet nooit genoeg.

710
00:29:46,040 --> 00:29:48,080
Dat is mijn persoonlijke perceptie.

711
00:29:48,080 --> 00:29:49,260
Ik kan nooit alles weten.

712
00:29:49,260 --> 00:29:51,800
Weet ik meer dan een aantal?

713
00:29:51,800 --> 00:29:52,120
Ja.

714
00:29:52,120 --> 00:29:54,600
Maar wat heb ik nodig om mijn werk te doen?

715
00:29:54,600 --> 00:29:56,640
Ik denk dat ik daar AI geletterd genoeg voor ben.

716
00:29:56,640 --> 00:29:58,520
Om de adviezen te geven.

717
00:29:58,520 --> 00:30:00,660
De oplossingen te bouwen die ik in de praktijk moet doen.

718
00:30:00,660 --> 00:30:03,820
Dus ja, ik denk dat ik AI geletterd genoeg ben.

719
00:30:03,820 --> 00:30:06,120
Maar wat betekent AI geletterdheid?

720
00:30:06,400 --> 00:30:08,620
Maar wat is je tip aan een ondernemer?

721
00:30:08,620 --> 00:30:09,140
Ondernemer.

722
00:30:09,140 --> 00:30:10,720
Twintig man personeel.

723
00:30:10,720 --> 00:30:11,600
Heeft.

724
00:30:11,600 --> 00:30:12,260
Goh.

725
00:30:12,260 --> 00:30:12,620
Oeh.

726
00:30:12,620 --> 00:30:14,180
Iedereen moet AI geletterd zijn.

727
00:30:14,180 --> 00:30:15,600
Ik zeg niet dat het waar is.

728
00:30:15,600 --> 00:30:17,760
Ik wilde ze er ook nog over zeggen.

729
00:30:17,760 --> 00:30:19,960
En hoge boetes.

730
00:30:19,960 --> 00:30:21,940
Iedereen moet.

731
00:30:21,940 --> 00:30:22,640
Dat soorten.

732
00:30:24,260 --> 00:30:25,920
Hoe kunnen zij aantonen.

733
00:30:25,920 --> 00:30:28,400
Dat als er een vraag komt.

734
00:30:28,400 --> 00:30:30,020
Dat ze AI geletterd zijn.

735
00:30:30,020 --> 00:30:30,360
Joop.

736
00:30:30,360 --> 00:30:34,060
Volgens mij is dat nu helemaal niet duidelijk.

737
00:30:34,060 --> 00:30:35,200
Hoe je moet aantonen.

738
00:30:35,200 --> 00:30:36,440
Hoe je AI geletterd bent.

739
00:30:36,440 --> 00:30:40,040
Ik vind de hele hysterie.

740
00:30:40,040 --> 00:30:41,000
Want zo wil ik het wel noemen.

741
00:30:41,000 --> 00:30:42,440
Rondom de AI geletterdheid.

742
00:30:42,440 --> 00:30:44,660
Vind ik echt grenzen aan krankzinnigheid.

743
00:30:44,660 --> 00:30:47,500
Tuurlijk is die wet er.

744
00:30:47,500 --> 00:30:51,860
Maar uiteindelijk is het een heel klein onderdeel van die wet.

745
00:30:51,860 --> 00:30:53,980
En er wordt heel veel gedrukt op.

746
00:30:53,980 --> 00:30:55,980
Je moet het vanwege die wet.

747
00:30:55,980 --> 00:30:57,380
Ik zou het willen omdraaien.

748
00:30:57,380 --> 00:30:57,800
Die zegt van.

749
00:30:57,800 --> 00:31:00,280
Je moet AI geletterd willen zijn.

750
00:31:00,280 --> 00:31:02,420
Dus dat je voldoende kennis hebt.

751
00:31:02,420 --> 00:31:03,820
Wat je aan het doen bent.

752
00:31:03,820 --> 00:31:04,820
Wat je aan het doen bent.

753
00:31:04,820 --> 00:31:05,940
Maar ook dat je snapt.

754
00:31:05,940 --> 00:31:06,620
Zeg maar.

755
00:31:06,620 --> 00:31:09,080
Waar risico's zitten.

756
00:31:09,080 --> 00:31:11,200
Wanneer je iets moet controleren.

757
00:31:11,200 --> 00:31:13,100
En volgens mij.

758
00:31:13,100 --> 00:31:15,400
Ik denk wat Niels ook zegt.

759
00:31:15,400 --> 00:31:15,700
Ja.

760
00:31:15,700 --> 00:31:17,600
De geletterdheid houdt niet op.

761
00:31:17,600 --> 00:31:19,820
Dus je hebt het net over FOMO gehad.

762
00:31:19,820 --> 00:31:21,000
Dat komt van alles op ons af.

763
00:31:21,500 --> 00:31:23,460
Maar dat betekent ook niet dat je alles moet weten.

764
00:31:23,460 --> 00:31:28,160
En wat gemist wordt in al die discussies.

765
00:31:28,160 --> 00:31:29,640
Want er wordt dan gezegd.

766
00:31:29,640 --> 00:31:30,320
Ja maar als.

767
00:31:30,320 --> 00:31:31,620
Omdat je al een.

768
00:31:31,620 --> 00:31:33,620
Bij je mail.

769
00:31:33,620 --> 00:31:35,780
Dat je daar een spamfilter hebt.

770
00:31:35,780 --> 00:31:38,900
Betekent dat je gebruikmaker bent van AI.

771
00:31:38,900 --> 00:31:40,180
Moet je AI geletterd zijn.

772
00:31:40,180 --> 00:31:41,800
Maar alles wat valt onder.

773
00:31:41,800 --> 00:31:43,860
Laag of geen risico.

774
00:31:43,860 --> 00:31:45,500
Valt niet onder die EU wet.

775
00:31:46,620 --> 00:31:48,720
En dat wordt even zeg maar.

776
00:31:48,720 --> 00:31:50,380
Voor het gemak vergeten.

777
00:31:50,380 --> 00:31:51,940
Want dat verkoopt natuurlijk niet.

778
00:31:51,940 --> 00:31:54,280
Dus we maken iedereen bang.

779
00:31:54,280 --> 00:31:54,760
Ja.

780
00:31:54,760 --> 00:31:56,380
Rond die AI geletterdheid.

781
00:31:57,440 --> 00:31:58,780
Ik vind het heel belangrijk.

782
00:31:58,780 --> 00:32:00,540
Want dat is een van de redenen.

783
00:32:00,540 --> 00:32:02,380
Waarom wij deze podcast zijn gestart.

784
00:32:02,380 --> 00:32:04,340
Ik vind het heel belangrijk.

785
00:32:04,340 --> 00:32:06,440
Dat je snapt wat de technologie is.

786
00:32:06,440 --> 00:32:07,300
Wat je ermee kan.

787
00:32:07,300 --> 00:32:08,760
Wat je er niet mee kan.

788
00:32:08,760 --> 00:32:12,640
En dat zou je best wel kunnen leren in een cursus.

789
00:32:12,640 --> 00:32:13,860
Dus een soort van basis.

790
00:32:13,860 --> 00:32:14,420
Van.

791
00:32:14,420 --> 00:32:16,280
Wat is het?

792
00:32:16,280 --> 00:32:16,940
Wat is het niet?

793
00:32:17,640 --> 00:32:21,300
Maar de wet gaat erover.

794
00:32:21,300 --> 00:32:24,160
Echte systemen waar je straks mee werkt.

795
00:32:24,160 --> 00:32:30,780
Dus als jouw werkgever een systeem heeft laten bouwen.

796
00:32:30,780 --> 00:32:32,060
Moet jij dus.

797
00:32:32,060 --> 00:32:33,820
Als jij gebruiker bent van dat systeem.

798
00:32:33,820 --> 00:32:35,720
Moet je weten wat dat systeem kan.

799
00:32:35,720 --> 00:32:36,820
Wat dat systeem niet kan.

800
00:32:36,820 --> 00:32:38,940
Waar de risico's liggen.

801
00:32:38,940 --> 00:32:42,380
Dus je kan nergens een vinkje halen.

802
00:32:42,380 --> 00:32:42,940
Van.

803
00:32:42,940 --> 00:32:44,620
Ik ben nu AI geletterd.

804
00:32:44,620 --> 00:32:46,620
Ik heb het certificaat AI geletterdheid.

805
00:32:46,740 --> 00:32:49,220
Dat slaat werkelijk helemaal nergens op.

806
00:32:49,220 --> 00:32:50,160
Ja mooi.

807
00:32:50,160 --> 00:32:50,920
En er zijn wel.

808
00:32:50,920 --> 00:32:52,420
Er zijn allerlei.

809
00:32:52,420 --> 00:32:54,880
De nationale AI cursus kan je volgen.

810
00:32:54,880 --> 00:32:56,460
Dan heb je je eerste basis.

811
00:32:56,460 --> 00:32:58,180
Van AI geletterdheid heb je.

812
00:32:58,180 --> 00:33:00,740
Je kan podcasten.

813
00:33:00,740 --> 00:33:02,280
Je kan dingen lezen.

814
00:33:02,280 --> 00:33:02,700
Je kan.

815
00:33:02,700 --> 00:33:04,660
Er zijn heel veel manieren.

816
00:33:04,660 --> 00:33:05,240
Cursus.

817
00:33:05,240 --> 00:33:06,100
Cursus.

818
00:33:06,100 --> 00:33:06,620
Zeker.

819
00:33:06,620 --> 00:33:07,520
En dat draagt bij.

820
00:33:07,520 --> 00:33:08,120
Draagt bij.

821
00:33:08,120 --> 00:33:08,620
Maar ja.

822
00:33:08,620 --> 00:33:10,920
Maar de wet zegt ook niet.

823
00:33:10,920 --> 00:33:13,720
Hoe jij die AI geletterdheid moet aantonen.

824
00:33:13,720 --> 00:33:14,060
Nee.

825
00:33:14,060 --> 00:33:15,120
Dat gaat allemaal nog komen.

826
00:33:16,320 --> 00:33:18,520
Zo zitten we in elkaar.

827
00:33:18,520 --> 00:33:20,080
Het brein is gedreven door angst.

828
00:33:20,080 --> 00:33:20,380
Ja.

829
00:33:20,380 --> 00:33:21,860
En dan denken we oeh.

830
00:33:21,860 --> 00:33:22,460
Ik moet wat.

831
00:33:22,460 --> 00:33:23,340
En dan even een vinkje halen.

832
00:33:23,340 --> 00:33:24,140
Even een vinkje halen.

833
00:33:24,140 --> 00:33:24,320
Ja.

834
00:33:24,320 --> 00:33:24,620
Nee.

835
00:33:24,620 --> 00:33:26,360
Dat is het niet.

836
00:33:26,360 --> 00:33:30,040
En krijg jij veel vragen Kim?

837
00:33:30,040 --> 00:33:31,440
Over AI geletterdheid?

838
00:33:31,440 --> 00:33:31,580
Ja.

839
00:33:32,360 --> 00:33:32,640
Zeker.

840
00:33:32,640 --> 00:33:35,460
En ik speel er natuurlijk ook handig op in met mijn trainingen.

841
00:33:35,460 --> 00:33:35,660
Nee.

842
00:33:35,660 --> 00:33:37,440
Dat zeker niet.

843
00:33:37,440 --> 00:33:37,940
Dat wil ik niet zeggen.

844
00:33:37,940 --> 00:33:38,900
Maar ik ben ook wel benieuwd.

845
00:33:38,900 --> 00:33:41,620
Waar ik heel veel ondernemers mee zie worstelen.

846
00:33:41,620 --> 00:33:41,980
Is.

847
00:33:41,980 --> 00:33:44,880
Wat voor kennisniveau moet iemand hebben.

848
00:33:44,880 --> 00:33:48,020
Om de generatieve AI tools verantwoord in te zetten.

849
00:33:48,020 --> 00:33:49,040
Hoe ver moet dat gaan?

850
00:33:49,040 --> 00:33:49,380
Ja.

851
00:33:49,380 --> 00:33:50,240
En ook.

852
00:33:50,240 --> 00:33:51,460
Hoe hou je dat up-to-date?

853
00:33:51,460 --> 00:33:52,960
Juist nu het zo snel gaat.

854
00:33:52,960 --> 00:33:54,180
Weet je.

855
00:33:54,180 --> 00:33:54,620
Moet je zeggen.

856
00:33:54,620 --> 00:33:56,500
Ik ga iedere maand moeten op cursus.

857
00:33:56,500 --> 00:33:56,760
Of.

858
00:33:56,760 --> 00:33:58,880
Heb je daar nog tips of adviezen in?

859
00:33:59,040 --> 00:34:00,980
Iedere maand lijkt me echt overdreven.

860
00:34:00,980 --> 00:34:01,520
Ja.

861
00:34:01,520 --> 00:34:01,540
Ja.

862
00:34:01,540 --> 00:34:02,200
Het is veel te veel.

863
00:34:02,200 --> 00:34:03,100
Nee.

864
00:34:03,100 --> 00:34:04,060
Kijk.

865
00:34:04,060 --> 00:34:04,840
Waar het om gaat.

866
00:34:04,840 --> 00:34:06,960
Is dat je de concepten snapt.

867
00:34:06,960 --> 00:34:08,199
En de borging hebt.

868
00:34:08,199 --> 00:34:08,580
Ja.

869
00:34:08,580 --> 00:34:09,820
Concepten.

870
00:34:09,820 --> 00:34:10,420
Borging.

871
00:34:10,420 --> 00:34:11,940
En on-boarding.

872
00:34:11,940 --> 00:34:12,400
Ja.

873
00:34:12,400 --> 00:34:14,360
Dus als er nieuwe medewerkers komen.

874
00:34:14,360 --> 00:34:16,020
Wat doe je daar dan ook mee?

875
00:34:16,020 --> 00:34:20,719
En dan kan je ook veel makkelijker elkaar helpen.

876
00:34:20,719 --> 00:34:24,659
En die AI geletterdheid gaat erover.

877
00:34:24,659 --> 00:34:26,320
Dat als er bijvoorbeeld.

878
00:34:27,580 --> 00:34:30,380
Die EU wet gaat over risico's.

879
00:34:30,380 --> 00:34:31,820
Dus het gaat erover.

880
00:34:31,820 --> 00:34:34,460
Dat als er iets goed mis is gegaan.

881
00:34:34,460 --> 00:34:34,719
Ja.

882
00:34:34,719 --> 00:34:36,199
Dat je dat moet melden.

883
00:34:36,199 --> 00:34:36,780
Ja.

884
00:34:36,780 --> 00:34:39,100
En dan gaat gekeken worden.

885
00:34:39,100 --> 00:34:41,300
Of jij wel voldoende hebt gedaan.

886
00:34:41,300 --> 00:34:42,880
Onder andere.

887
00:34:42,880 --> 00:34:44,420
Aan die AI geletterdheid.

888
00:34:44,420 --> 00:34:45,920
En er zitten nog veel meer dingen.

889
00:34:45,920 --> 00:34:47,179
Waar naar gekeken wordt.

890
00:34:47,179 --> 00:34:48,860
En dan kan de AI geletterdheid.

891
00:34:48,860 --> 00:34:51,300
Kan daar zeg maar een schepje bovenop zijn.

892
00:34:51,300 --> 00:34:54,460
Dus ja.

893
00:34:54,460 --> 00:34:56,100
Nogmaals zeg maar voor die wet.

894
00:34:56,100 --> 00:34:57,340
Zou ik het echt niet willen doen.

895
00:34:57,540 --> 00:34:59,640
En daarmee.

896
00:34:59,640 --> 00:35:00,560
Maar je moet het willen.

897
00:35:00,560 --> 00:35:00,800
Ja.

898
00:35:00,800 --> 00:35:03,220
En daarmee verlaag je denk ik volgens mij ook.

899
00:35:03,220 --> 00:35:05,520
Helemaal de druk van iedere maand.

900
00:35:05,520 --> 00:35:06,120
Precies.

901
00:35:06,120 --> 00:35:08,680
Kijk gewoon wat zinnig is.

902
00:35:08,680 --> 00:35:09,720
Kijk als het gaat over.

903
00:35:09,720 --> 00:35:11,480
Je gebruikt ChatGPT.

904
00:35:11,480 --> 00:35:13,700
En je wil daar een geletterdheid over hebben.

905
00:35:13,700 --> 00:35:15,640
Dan denk ik dat je begint met een basiscursus.

906
00:35:15,940 --> 00:35:22,800
En dat je misschien twee, drie keer per jaar met elkaar een soort van intervisie opzet.

907
00:35:22,800 --> 00:35:24,200
Noem dat AI Tuesday Joop.

908
00:35:24,200 --> 00:35:25,040
Ik noem het AI Tuesday.

909
00:35:25,040 --> 00:35:25,160
Ja.

910
00:35:25,160 --> 00:35:27,920
En AI Tuesday is gewoon.

911
00:35:27,920 --> 00:35:30,200
Zet nou in het begin onboarden.

912
00:35:30,200 --> 00:35:31,280
Ik vind onboarden.

913
00:35:31,280 --> 00:35:33,000
Beleggen.

914
00:35:33,000 --> 00:35:34,220
En borgen.

915
00:35:34,220 --> 00:35:36,480
Dus beleggen per afdeling.

916
00:35:36,480 --> 00:35:38,820
Want elke afdeling gaat met andere systemen om.

917
00:35:38,820 --> 00:35:39,060
Ja.

918
00:35:39,820 --> 00:35:41,720
En dan heb je met je afdeling.

919
00:35:41,720 --> 00:35:44,100
Heb je één keer per maand een AI Tuesday.

920
00:35:44,100 --> 00:35:46,020
En dan overleg je dat met elkaar.

921
00:35:46,020 --> 00:35:47,020
Dan toet je dat met elkaar.

922
00:35:47,020 --> 00:35:48,140
En dan ga je het borgen.

923
00:35:48,140 --> 00:35:50,060
Want ik denk als je het gaat borgen.

924
00:35:50,060 --> 00:35:51,740
Bespreekbaar maken.

925
00:35:51,740 --> 00:35:54,660
Dat is de basis om gewoon met elkaar te groeien.

926
00:35:54,660 --> 00:35:56,520
En dit is wel grappig.

927
00:35:56,520 --> 00:35:57,920
Die AI Tuesday.

928
00:35:57,920 --> 00:36:00,640
De meest gestelde vragen trouwens die ik had.

929
00:36:00,640 --> 00:36:01,240
Krijg ik van Martin.

930
00:36:01,240 --> 00:36:02,040
Die AI Tuesday.

931
00:36:02,040 --> 00:36:03,320
Mag het ook op donderdag?

932
00:36:03,320 --> 00:36:05,320
Nee.

933
00:36:05,320 --> 00:36:06,320
Ik zeg nee.

934
00:36:06,320 --> 00:36:06,620
Nee.

935
00:36:06,620 --> 00:36:06,760
Nee.

936
00:36:06,760 --> 00:36:07,460
Echt.

937
00:36:07,460 --> 00:36:08,620
Is in de wet vastgelegd.

938
00:36:08,620 --> 00:36:09,620
Adi geletterdheid.

939
00:36:09,620 --> 00:36:10,600
Dinsdag.

940
00:36:10,600 --> 00:36:11,060
Ja.

941
00:36:11,060 --> 00:36:11,700
Niels.

942
00:36:11,700 --> 00:36:12,020
Ja.

943
00:36:12,020 --> 00:36:13,220
Waar het volgens mij om gaat.

944
00:36:13,220 --> 00:36:15,320
AI wordt nu gepakt.

945
00:36:15,320 --> 00:36:16,040
AI geletterdheid.

946
00:36:16,040 --> 00:36:17,580
Maar volgens mij moeten we gewoon weten.

947
00:36:17,580 --> 00:36:19,380
Waar zijn we mee bezig met ons werk.

948
00:36:19,380 --> 00:36:21,380
Waar zijn we professioneel mee bezig.

949
00:36:21,380 --> 00:36:23,300
En daar genoeg kennis van hebben.

950
00:36:23,300 --> 00:36:24,600
Om professioneel te doen.

951
00:36:24,600 --> 00:36:25,720
Wat we moeten doen.

952
00:36:25,720 --> 00:36:26,680
Helemaal mee eens.

953
00:36:26,680 --> 00:36:27,320
Ik zeg ook.

954
00:36:27,320 --> 00:36:28,000
Het was mooi.

955
00:36:28,000 --> 00:36:29,500
Ik kreeg ook weer laatst weer terug.

956
00:36:29,500 --> 00:36:31,160
Het gaat niet om ChatGPT.

957
00:36:31,160 --> 00:36:32,340
Het gaat erom.

958
00:36:32,340 --> 00:36:33,360
Wat wil je maken?

959
00:36:33,360 --> 00:36:33,780
Ja.

960
00:36:33,780 --> 00:36:34,500
Wat is je doel?

961
00:36:34,500 --> 00:36:34,800
Ja.

962
00:36:34,800 --> 00:36:35,440
En wanneer.

963
00:36:35,440 --> 00:36:36,900
En dit vind ik ook iets wat ik altijd doe.

964
00:36:36,900 --> 00:36:39,480
Wanneer is de definition of done.

965
00:36:39,520 --> 00:36:40,020
goed genoeg.

966
00:36:40,020 --> 00:36:42,280
En als je dat niet hebt.

967
00:36:42,280 --> 00:36:42,540
Dan zeg je.

968
00:36:42,540 --> 00:36:42,660
Ja.

969
00:36:42,660 --> 00:36:43,540
Dan moet je even niet doorgaan.

970
00:36:43,540 --> 00:36:43,740
Ja.

971
00:36:43,740 --> 00:36:46,080
Want als jij de output niet hebt beschreven.

972
00:36:46,080 --> 00:36:47,480
Dan ga je geen prompt maken.

973
00:36:47,480 --> 00:36:50,120
Die zo dicht als mogelijk bij die output komt.

974
00:36:50,120 --> 00:36:52,140
Dan krijg je hele slechte GPTs.

975
00:36:52,140 --> 00:36:54,080
Die de slechte content gaan maken.

976
00:36:54,080 --> 00:36:56,620
En wat voor AI agents ga je dan krijgen?

977
00:36:56,620 --> 00:36:57,080
Want Joop.

978
00:36:57,080 --> 00:36:58,520
Jij hebt er eens ontslagen.

979
00:36:58,520 --> 00:36:59,180
Ja.

980
00:36:59,180 --> 00:36:59,400
Ja.

981
00:36:59,400 --> 00:37:02,020
Ik wil toch nog één ding nog even over die.

982
00:37:02,020 --> 00:37:03,200
Want.

983
00:37:03,200 --> 00:37:04,200
Kijk.

984
00:37:04,200 --> 00:37:06,180
Die AI geletterdheid gaat ook weer heel erg.

985
00:37:06,180 --> 00:37:06,460
Weet je.

986
00:37:06,460 --> 00:37:07,580
Naar binnen toe.

987
00:37:07,580 --> 00:37:07,820
Weet je.

988
00:37:07,860 --> 00:37:09,200
Ik moet dat leren en zo.

989
00:37:09,200 --> 00:37:11,860
En wat me daaraan ergert.

990
00:37:11,860 --> 00:37:11,960
Ja.

991
00:37:11,960 --> 00:37:12,440
Ik zie het.

992
00:37:12,440 --> 00:37:14,800
Is dat.

993
00:37:14,800 --> 00:37:15,260
Kijk.

994
00:37:15,260 --> 00:37:17,060
Die wet gaat over risico's.

995
00:37:17,060 --> 00:37:17,520
Nogmaals.

996
00:37:17,520 --> 00:37:17,920
Ja.

997
00:37:18,040 --> 00:37:21,540
Dus dat betekent dat je impact maakt op levens van mensen.

998
00:37:21,540 --> 00:37:21,920
Ja.

999
00:37:21,920 --> 00:37:24,320
En dan gaan we het hebben over die AI geletterdheid.

1000
00:37:24,320 --> 00:37:27,920
Maar niet over nadenken over de systemen die je bouwt.

1001
00:37:27,920 --> 00:37:31,860
Wat dat betekent dus voor maatschappelijke impact.

1002
00:37:31,860 --> 00:37:35,200
Wat dat voor individuen kan betekenen.

1003
00:37:35,880 --> 00:37:39,700
En daarvoor is het zoveel belangrijker dat je dat soort dingen nadenkt.

1004
00:37:39,700 --> 00:37:40,460
Ja.

1005
00:37:40,460 --> 00:37:40,620
En dan.

1006
00:37:40,620 --> 00:37:40,840
Ja.

1007
00:37:40,840 --> 00:37:42,240
Die AI geletterdheid is echt.

1008
00:37:42,240 --> 00:37:43,400
Dat is echt een stukje.

1009
00:37:43,400 --> 00:37:43,740
Weet je.

1010
00:37:43,740 --> 00:37:46,640
Heel veel mensen zullen er nu helemaal gek worden wat ik zeg.

1011
00:37:46,640 --> 00:37:46,780
Ja.

1012
00:37:46,780 --> 00:37:47,040
Ja.

1013
00:37:47,040 --> 00:37:48,740
Maar het gaat uiteindelijk over.

1014
00:37:48,740 --> 00:37:49,020
Weet je.

1015
00:37:49,020 --> 00:37:50,340
Wat ben je aan het maken.

1016
00:37:50,340 --> 00:37:52,940
Hoe zorg je dat je die risico's minder maakt.

1017
00:37:52,940 --> 00:37:55,080
Hoe zorg je dat je bias minder maakt.

1018
00:37:55,080 --> 00:37:57,600
Hoe zorg je dat je het eerlijker maakt.

1019
00:37:57,600 --> 00:37:59,420
Daar moet over nagedacht worden.

1020
00:37:59,420 --> 00:37:59,660
Ja.

1021
00:38:00,060 --> 00:38:02,240
En als je dat allemaal gedaan hebt.

1022
00:38:02,240 --> 00:38:02,620
Ja.

1023
00:38:02,620 --> 00:38:04,380
Dan ben je vanzelf AI geletterd.

1024
00:38:04,380 --> 00:38:04,800
Ja.

1025
00:38:04,800 --> 00:38:07,440
Zou je dan ook kunnen zeggen dat door AI.

1026
00:38:07,440 --> 00:38:10,340
Dat eigenlijk alles wat we niet goed op orde hebben.

1027
00:38:10,340 --> 00:38:12,140
Dat komt nu naar boven drijven.

1028
00:38:12,140 --> 00:38:13,100
Zeker.

1029
00:38:13,100 --> 00:38:13,760
Ja.

1030
00:38:13,760 --> 00:38:15,880
Het wordt zichtbaar.

1031
00:38:15,880 --> 00:38:18,540
Dus als jij een model traint.

1032
00:38:18,540 --> 00:38:21,480
Die je ontzettend aan vooroordelen doet.

1033
00:38:21,480 --> 00:38:22,960
Dan wordt het in één keer zichtbaar.

1034
00:38:22,960 --> 00:38:23,520
Ja.

1035
00:38:23,520 --> 00:38:24,360
Ik vind het een hele goede Kim.

1036
00:38:24,360 --> 00:38:25,960
Want één van de slides.

1037
00:38:25,960 --> 00:38:27,800
En bij deze ga ik even akkoord vragen.

1038
00:38:27,800 --> 00:38:29,820
Maar ik heb hem al in mijn slide deck zitten.

1039
00:38:29,940 --> 00:38:32,260
Maar dat weet jullie.

1040
00:38:32,260 --> 00:38:36,700
En er was een keer een mooie presentatie van jou Kim.

1041
00:38:36,700 --> 00:38:37,500
Die heb ik gezien.

1042
00:38:37,500 --> 00:38:38,920
We zaten een keer samen in zo'n podcast.

1043
00:38:38,920 --> 00:38:40,500
Maar wat ik echt waar iedereen.

1044
00:38:40,500 --> 00:38:42,700
En we zullen hem in de slideshow ook zetten.

1045
00:38:42,700 --> 00:38:45,320
Waar iedereen op aangaat in mijn trainingen.

1046
00:38:45,320 --> 00:38:48,720
Is dat ik laat zien hoe jullie de serie van de podcast hebben gemaakt.

1047
00:38:48,720 --> 00:38:50,940
En dat vindt iedereen zo geweldig.

1048
00:38:50,940 --> 00:38:53,860
Want er zaten voor AI en ChatGPT.

1049
00:38:53,860 --> 00:38:55,280
En generatieve AI.

1050
00:38:55,280 --> 00:38:56,680
Wat was het proces?

1051
00:38:56,680 --> 00:38:59,540
En elke keer zie ik mensen meteen foto's maken.

1052
00:38:59,620 --> 00:38:59,980
Oeh.

1053
00:38:59,980 --> 00:39:00,580
Van.

1054
00:39:00,580 --> 00:39:01,140
Hé.

1055
00:39:01,140 --> 00:39:02,620
En daarna.

1056
00:39:02,620 --> 00:39:06,280
Wat ga je nu nieuw doen met generatieve AI?

1057
00:39:06,280 --> 00:39:06,860
Dus.

1058
00:39:06,860 --> 00:39:08,220
Maar misschien kunnen jullie zelf nog één keer.

1059
00:39:08,220 --> 00:39:08,880
Want ik vind dat.

1060
00:39:08,880 --> 00:39:09,740
Als ik dat laat zien.

1061
00:39:09,740 --> 00:39:10,260
Die slide.

1062
00:39:10,260 --> 00:39:11,100
Dit was het.

1063
00:39:11,100 --> 00:39:13,180
En het is de nieuwe werkwijze.

1064
00:39:13,180 --> 00:39:14,320
En dan.

1065
00:39:14,320 --> 00:39:15,840
Jullie kunnen nu.

1066
00:39:15,840 --> 00:39:17,160
Wat ik heb begrepen.

1067
00:39:17,160 --> 00:39:17,840
Drie keer.

1068
00:39:17,840 --> 00:39:19,600
Drie podcast doen.

1069
00:39:19,680 --> 00:39:20,080
In de tijd.

1070
00:39:20,080 --> 00:39:20,720
In de tijd die je hiervoor.

1071
00:39:20,720 --> 00:39:22,520
Daarvoor deden ongeveer.

1072
00:39:22,520 --> 00:39:23,700
Door sneller te praten.

1073
00:39:23,700 --> 00:39:24,400
Door sneller te praten.

1074
00:39:24,400 --> 00:39:24,840
Ja.

1075
00:39:24,840 --> 00:39:25,020
Ja.

1076
00:39:25,020 --> 00:39:25,320
Dat is mooi.

1077
00:39:26,160 --> 00:39:27,200
Maar dat vind ik wel.

1078
00:39:27,200 --> 00:39:29,440
Heb jij dat proces niet scherp.

1079
00:39:29,440 --> 00:39:29,740
Ja.

1080
00:39:29,740 --> 00:39:31,740
Heb je je taken niet beschreven.

1081
00:39:31,740 --> 00:39:32,400
Ja.

1082
00:39:32,400 --> 00:39:34,300
Dat wordt nu pijnlijk duidelijk.

1083
00:39:34,300 --> 00:39:34,820
Ja.

1084
00:39:34,820 --> 00:39:35,740
Je gaat naar de kern.

1085
00:39:35,740 --> 00:39:37,300
Je gaat nu terug naar de kern.

1086
00:39:37,300 --> 00:39:37,920
Kim.

1087
00:39:38,000 --> 00:39:39,200
Heb jij nog een lastig vraag.

1088
00:39:39,200 --> 00:39:40,380
Je wilde over die AI agent.

1089
00:39:40,380 --> 00:39:40,800
Oh ja.

1090
00:39:40,800 --> 00:39:41,060
Sorry.

1091
00:39:41,060 --> 00:39:41,740
Die had je ontslagen.

1092
00:39:41,740 --> 00:39:42,240
Je vertelde ze.

1093
00:39:42,240 --> 00:39:42,580
Ja.

1094
00:39:42,580 --> 00:39:43,920
Waarom heb je ontslagen?

1095
00:39:43,920 --> 00:39:44,200
Ja.

1096
00:39:44,200 --> 00:39:46,180
Maar alles gaat nu natuurlijk over AI agents.

1097
00:39:46,180 --> 00:39:47,500
Iedereen krijgt AI agents.

1098
00:39:47,500 --> 00:39:48,200
En dat soort zaken.

1099
00:39:48,200 --> 00:39:51,060
Dus wij experimenteren daar natuurlijk ook mee.

1100
00:39:51,060 --> 00:39:55,800
En de podcast is daar een geweldig middel voor.

1101
00:39:55,800 --> 00:39:58,340
Want wij produceren hier natuurlijk ontzettend veel data.

1102
00:39:58,340 --> 00:39:58,520
Ja.

1103
00:39:58,520 --> 00:40:02,980
Een van de dingen die best wel veel tijd kosten.

1104
00:40:02,980 --> 00:40:06,720
Is het inlezen in de gasten die wij uitnodigen.

1105
00:40:07,080 --> 00:40:12,440
En waar leggen we dan de nadruk op wat we willen inlezen.

1106
00:40:12,440 --> 00:40:16,880
Dus daar had ik een research agent voor gebouwd.

1107
00:40:16,880 --> 00:40:17,940
Dat klinkt.

1108
00:40:17,940 --> 00:40:18,320
Mooi.

1109
00:40:18,320 --> 00:40:18,600
Toch?

1110
00:40:18,600 --> 00:40:19,400
Dat klinkt heel mooi.

1111
00:40:19,400 --> 00:40:23,420
En wat hij deed is dat hij het internet afschuimde.

1112
00:40:23,420 --> 00:40:25,980
Kijken van wat heeft degene gepubliceerd.

1113
00:40:25,980 --> 00:40:27,420
Wat is er over geschreven?

1114
00:40:27,420 --> 00:40:28,260
Over de gast?

1115
00:40:28,260 --> 00:40:29,940
Over hem of haar?

1116
00:40:29,940 --> 00:40:33,100
Daar een samenvatting van gemaakt.

1117
00:40:33,300 --> 00:40:39,220
De vijf meest interessante artikelen of publicaties eruit gehaald.

1118
00:40:39,220 --> 00:40:40,300
YouTube video's.

1119
00:40:40,300 --> 00:40:40,720
Dat soort dingen.

1120
00:40:40,720 --> 00:40:44,140
En vervolgens ook mogelijke vragen.

1121
00:40:44,140 --> 00:40:47,100
Maar dan vooral eigenlijk om ons te triggeren.

1122
00:40:47,100 --> 00:40:49,040
Dat is een soort van out of the box vragen.

1123
00:40:49,040 --> 00:40:51,240
Wat zou ik dan typisch niet vragen?

1124
00:40:52,820 --> 00:40:55,160
Nou, dat ging redelijk.

1125
00:40:55,160 --> 00:40:58,040
Met de nadruk op redelijk.

1126
00:40:58,040 --> 00:41:06,420
Want wat je gaat doen met zo'n agent is dat je de besluiten hoe die omgaat met de flow van je programma.

1127
00:41:06,420 --> 00:41:08,620
Met de data waar die mee omgaat.

1128
00:41:08,620 --> 00:41:10,420
Laat je dus over aan het taalmodel.

1129
00:41:10,660 --> 00:41:15,460
Dus het taalmodel zet eigenlijk taken uit naar verschillende tools.

1130
00:41:15,460 --> 00:41:19,600
Er is dan een tool die je kan webscrapen.

1131
00:41:19,600 --> 00:41:21,580
Er is een tool die samenvattingen kan maken.

1132
00:41:21,580 --> 00:41:23,240
En zo heb je dat soort verschillende tools.

1133
00:41:23,240 --> 00:41:25,100
Daar kom je dus heel slecht tussen.

1134
00:41:25,100 --> 00:41:27,460
Dus als daar fouten optreden.

1135
00:41:27,460 --> 00:41:27,880
Wat is het?

1136
00:41:27,880 --> 00:41:31,980
Dan was het gewoon klaar.

1137
00:41:31,980 --> 00:41:33,960
De fout loopt door.

1138
00:41:33,960 --> 00:41:37,480
Nou ja, of de agent klapte gewoon.

1139
00:41:38,480 --> 00:41:40,320
Ja, ik kan een webscrapen.

1140
00:41:40,320 --> 00:41:42,160
Dus klap eruit.

1141
00:41:42,160 --> 00:41:47,480
En dat was dan heel moeilijk om daar omheen te gaan.

1142
00:41:47,480 --> 00:41:50,240
Maar wat nog grappiger was.

1143
00:41:50,240 --> 00:41:53,340
Is dat omdat het taalmodel is dan eigenlijk het brein.

1144
00:41:53,340 --> 00:41:56,860
Het is eigenlijk de regisseur van die taken.

1145
00:41:56,860 --> 00:42:00,080
Ik zet nu even dit in de laat ik je zien.

1146
00:42:00,080 --> 00:42:05,360
Dat om die regisseur goed te instrueren.

1147
00:42:05,360 --> 00:42:06,400
Want dat moet ik dan weer doen.

1148
00:42:06,780 --> 00:42:09,460
Was ik dus eigenlijk in een soort van Nederlands of Engels.

1149
00:42:09,460 --> 00:42:10,920
In natuurlijke taal.

1150
00:42:10,920 --> 00:42:11,680
Helemaal aan het vertellen.

1151
00:42:11,680 --> 00:42:12,560
Je moet eerst dit doen.

1152
00:42:12,560 --> 00:42:13,200
Dan moet je dat doen.

1153
00:42:13,200 --> 00:42:16,460
Ik denk ja, maar dit is gewoon eigenlijk programmeren.

1154
00:42:16,460 --> 00:42:18,280
En als ik het programmeer.

1155
00:42:18,280 --> 00:42:20,100
Want het is eigenlijk gewoon een workflow.

1156
00:42:20,100 --> 00:42:21,940
Heb ik overal zelf invloed op.

1157
00:42:21,940 --> 00:42:23,340
Dus als er dan iets misgaat.

1158
00:42:23,340 --> 00:42:24,540
Kan ik bepalen wat er.

1159
00:42:24,540 --> 00:42:27,460
Of als er uitzonderingssituaties terugkomen.

1160
00:42:27,460 --> 00:42:28,240
Dan kan ik zeggen.

1161
00:42:28,240 --> 00:42:32,300
In dit geval wil ik dat je er iets anders mee doet.

1162
00:42:32,780 --> 00:42:34,960
En dat is veel moeilijker met zo'n agent.

1163
00:42:34,960 --> 00:42:36,720
Dus als minder fout gevoelig.

1164
00:42:36,720 --> 00:42:37,460
Meer grip.

1165
00:42:37,460 --> 00:42:38,080
Precies.

1166
00:42:38,080 --> 00:42:41,000
En wat uiteindelijk het allerbelangrijkste was.

1167
00:42:41,000 --> 00:42:42,860
Als het een workflow is.

1168
00:42:42,860 --> 00:42:44,940
Dus iets waarvan jij zelf kan zeggen.

1169
00:42:44,940 --> 00:42:46,480
Je moet eerst dit doen.

1170
00:42:46,480 --> 00:42:46,940
Dan dat.

1171
00:42:46,940 --> 00:42:49,240
En als dit gehoopt.

1172
00:42:49,240 --> 00:42:51,700
Dan kan ik dat gewoon veel beter uitprogrammeren.

1173
00:42:51,700 --> 00:42:55,400
Waar de agents eigenlijk in exceleren.

1174
00:42:55,640 --> 00:42:57,300
Is waar je juist die workflow.

1175
00:42:57,300 --> 00:42:58,420
Niet.

1176
00:42:58,420 --> 00:43:00,380
Heel standaard hebt.

1177
00:43:00,380 --> 00:43:00,840
Dus.

1178
00:43:00,840 --> 00:43:03,620
Als je een bepaalde.

1179
00:43:03,620 --> 00:43:05,900
Voor case managers.

1180
00:43:05,900 --> 00:43:06,740
Die zeggen van.

1181
00:43:06,740 --> 00:43:08,820
Alles wat uit de customer service valt.

1182
00:43:08,820 --> 00:43:11,140
En daar heb je nu een case manager voor nodig.

1183
00:43:11,140 --> 00:43:11,920
Misschien kan je voor.

1184
00:43:11,920 --> 00:43:13,840
Een deel van die case manager.

1185
00:43:13,840 --> 00:43:15,940
Daar zou je misschien AI voor in kunnen zetten.

1186
00:43:15,940 --> 00:43:17,020
Want dan moeten er.

1187
00:43:17,020 --> 00:43:18,820
Besluiten worden genomen.

1188
00:43:18,820 --> 00:43:19,720
Van de ene keer.

1189
00:43:19,720 --> 00:43:20,900
Misschien meer dit.

1190
00:43:20,900 --> 00:43:21,920
Misschien meer dat.

1191
00:43:21,920 --> 00:43:24,580
En daar is dat ding wel goed in.

1192
00:43:24,640 --> 00:43:25,700
Maar als ik gewoon.

1193
00:43:25,700 --> 00:43:27,600
Een standaard werkproces heb.

1194
00:43:27,600 --> 00:43:28,200
Ja.

1195
00:43:28,200 --> 00:43:28,680
Ja.

1196
00:43:28,680 --> 00:43:29,360
Dan heb ik liever.

1197
00:43:29,360 --> 00:43:30,080
Lief liever dat.

1198
00:43:30,080 --> 00:43:31,020
Dat hij dat gewoon.

1199
00:43:31,020 --> 00:43:31,380
Gecontroleerd.

1200
00:43:31,380 --> 00:43:32,380
Gecontroleerd.

1201
00:43:32,380 --> 00:43:33,740
En altijd op dezelfde manier doet.

1202
00:43:33,740 --> 00:43:34,200
Ja.

1203
00:43:34,200 --> 00:43:35,260
Wat zijn dan.

1204
00:43:35,260 --> 00:43:35,840
Wat je doende net.

1205
00:43:35,840 --> 00:43:36,720
Inderdaad de klantenservice.

1206
00:43:36,720 --> 00:43:37,480
Besluiten nemen.

1207
00:43:37,480 --> 00:43:39,060
Wat zijn use cases.

1208
00:43:39,060 --> 00:43:41,500
Waar AI agents nu wel voor zouden kunnen werken.

1209
00:43:41,500 --> 00:43:43,140
Ik vind dat best wel heel erg moeilijk.

1210
00:43:43,140 --> 00:43:45,620
Het hele verhaal.

1211
00:43:45,620 --> 00:43:46,040
Zeg maar.

1212
00:43:46,040 --> 00:43:47,800
Van die AI agents.

1213
00:43:47,800 --> 00:43:49,700
Die van alles gaan overnemen.

1214
00:43:49,700 --> 00:43:50,640
Van onze taken.

1215
00:43:50,640 --> 00:43:52,580
Ik moet het nog echt wel zien gebeuren hoor.

1216
00:43:52,580 --> 00:43:54,100
Waar komt dan die hype nu vandaan?

1217
00:43:54,360 --> 00:43:55,980
Waarom zijn we daar wel getriggerd?

1218
00:43:55,980 --> 00:43:57,780
Het klinkt natuurlijk ook heerlijk.

1219
00:43:57,780 --> 00:44:01,360
Dat je je werk gewoon zomaar kan uitbesteden.

1220
00:44:01,360 --> 00:44:04,440
Het hele idee van.

1221
00:44:04,440 --> 00:44:07,820
Ik heb gewoon meerdere agents werken.

1222
00:44:07,820 --> 00:44:09,680
Dus ik word een soort van agent manager.

1223
00:44:09,680 --> 00:44:10,340
Ja.

1224
00:44:10,340 --> 00:44:11,100
Dat is toch heerlijk toch?

1225
00:44:11,100 --> 00:44:12,820
Maar moet je dan niet gewoon een andere baan gaan zoeken?

1226
00:44:12,820 --> 00:44:14,760
Dat weet ik niet.

1227
00:44:14,760 --> 00:44:17,620
Dat hangt van het individu af.

1228
00:44:17,620 --> 00:44:18,280
Dat je het niet gedaan hebt.

1229
00:44:18,280 --> 00:44:22,400
Maar een van de dingen die ik toch wel steeds aanhaal.

1230
00:44:22,400 --> 00:44:23,740
Is omdat er wordt gezegd.

1231
00:44:23,740 --> 00:44:25,580
En agenda management.

1232
00:44:25,580 --> 00:44:27,600
Daar hebben we het hier wel eens vaker over gehad in de podcast.

1233
00:44:27,600 --> 00:44:32,240
Maar het boeken van een reis wordt dan ook bijvoorbeeld gezegd.

1234
00:44:32,240 --> 00:44:32,460
Weet je.

1235
00:44:32,460 --> 00:44:34,180
Als we het heel persoonlijk maken.

1236
00:44:34,180 --> 00:44:36,020
Dat doen we nog niet eens in een bedrijfssituatie.

1237
00:44:36,020 --> 00:44:37,700
Met bedrijfskritische applicaties.

1238
00:44:37,700 --> 00:44:38,560
Een reis.

1239
00:44:38,560 --> 00:44:43,780
Zou jij toen er nog reisbureaus waren.

1240
00:44:43,780 --> 00:44:46,420
Dat je tegen iemand zei.

1241
00:44:46,420 --> 00:44:48,240
Hier heb je mijn budget.

1242
00:44:48,240 --> 00:44:52,360
Ik wil naar Zuid-Amerika.

1243
00:44:52,360 --> 00:44:54,320
Boek maar.

1244
00:44:54,320 --> 00:44:55,580
Ja boek maar.

1245
00:44:55,580 --> 00:44:57,300
Het moet een spannende reis worden.

1246
00:44:57,300 --> 00:44:59,180
Je stelt deze vraag echt aan de verkeerde personen.

1247
00:44:59,180 --> 00:45:01,820
Want ik heb nog een vakantieadviseur die precies dit doet.

1248
00:45:01,820 --> 00:45:03,020
Omdat ik zelf geen keuze kan maken.

1249
00:45:03,020 --> 00:45:07,420
Maar ik neem aan dat je best wel heel veel dingen opgeeft.

1250
00:45:07,980 --> 00:45:10,260
Waar het aan je reis moet voldoen.

1251
00:45:10,260 --> 00:45:10,900
Valt mee.

1252
00:45:10,900 --> 00:45:12,860
Maar ze kent me natuurlijk ondertussen al redelijk.

1253
00:45:12,860 --> 00:45:14,120
Dus ze weten ook een beetje van.

1254
00:45:14,120 --> 00:45:15,380
Deze reizen vond ze leuk.

1255
00:45:15,380 --> 00:45:17,140
En dit vond ze er dan leuk aan.

1256
00:45:17,140 --> 00:45:21,140
Dus het gaat nu eigenlijk in een half uur even kletsen.

1257
00:45:21,140 --> 00:45:22,640
En dan komen ze met de voorstel.

1258
00:45:22,640 --> 00:45:23,280
En dan zeg ik oké.

1259
00:45:23,280 --> 00:45:24,100
Goed of niet goed.

1260
00:45:24,100 --> 00:45:25,360
Ja ik moet wel zeggen.

1261
00:45:25,360 --> 00:45:26,500
Ik zal eerlijk met jullie zijn.

1262
00:45:26,500 --> 00:45:28,120
Mijn achtergrond is natuurlijk D-reizen.

1263
00:45:28,120 --> 00:45:31,760
Ooit in de vorige eeuw aan die wieg dagen staan.

1264
00:45:31,760 --> 00:45:34,080
Maar we hebben onze vakantie.

1265
00:45:34,080 --> 00:45:37,400
Hadden we een keuze tussen Zuid-Afrika en Amerika.

1266
00:45:37,400 --> 00:45:38,340
Maar om een of andere reden.

1267
00:45:38,340 --> 00:45:39,760
Amerika viel af.

1268
00:45:39,760 --> 00:45:42,280
Er was iets heel raars aan de hand laatste.

1269
00:45:42,280 --> 00:45:44,200
Maar daar hadden we geen zin meer in.

1270
00:45:44,200 --> 00:45:46,780
Maar toen heb ik wat ik heb gedaan.

1271
00:45:46,780 --> 00:45:47,920
Ik heb ChatGPT gevraagd.

1272
00:45:47,920 --> 00:45:49,280
En dit is wel eng hoor.

1273
00:45:49,280 --> 00:45:50,020
Want dan zeg ik.

1274
00:45:50,020 --> 00:45:51,100
Hé je kent me toch hè.

1275
00:45:51,100 --> 00:45:51,640
Ja.

1276
00:45:51,640 --> 00:45:52,880
Nou je wilt niet weten.

1277
00:45:52,880 --> 00:45:54,700
Als je vragen stelt wat die over van je weet.

1278
00:45:54,700 --> 00:45:55,560
Ik zeg nou dan weet je.

1279
00:45:55,560 --> 00:45:56,640
We gaan met z'n vieren.

1280
00:45:57,820 --> 00:45:59,160
Luc, Isa, mijn vrouw.

1281
00:45:59,160 --> 00:46:00,680
17, 19.

1282
00:46:00,680 --> 00:46:02,920
We willen naar Zuid-Afrika.

1283
00:46:02,920 --> 00:46:04,120
We willen een rondreis.

1284
00:46:04,120 --> 00:46:05,040
We willen dit dat.

1285
00:46:05,040 --> 00:46:06,380
En wat ik toen heb gezegd.

1286
00:46:06,380 --> 00:46:07,560
Ik doe heel vaak in dialoog.

1287
00:46:07,560 --> 00:46:11,800
Ik wil dat je mij zeven vragen stelt.

1288
00:46:11,800 --> 00:46:12,920
Soms ook gewoon.

1289
00:46:12,920 --> 00:46:15,280
Ik wil dat je mij een aantal vragen stelt.

1290
00:46:15,280 --> 00:46:16,180
Dan laat ik even de keuze.

1291
00:46:16,180 --> 00:46:17,100
Daar ben ik mee spelen.

1292
00:46:17,800 --> 00:46:19,380
Waardoor je exact weet wat ik wil.

1293
00:46:19,380 --> 00:46:21,600
En op basis daarvan ga je op zoek.

1294
00:46:21,600 --> 00:46:22,680
Nou echt.

1295
00:46:22,680 --> 00:46:24,920
Dit was gewoon niet te doen.

1296
00:46:24,920 --> 00:46:26,980
En die kwam met zulke goede vragen.

1297
00:46:26,980 --> 00:46:28,960
En dat was eigenlijk op die manier.

1298
00:46:28,960 --> 00:46:31,340
Was het gewoon mijn eigen reis assistent.

1299
00:46:31,340 --> 00:46:33,240
Omdat ik hem had gevraagd.

1300
00:46:33,240 --> 00:46:34,400
Om met mij een dialoog te starten.

1301
00:46:34,400 --> 00:46:36,500
En wat ik zelf heb ervaren.

1302
00:46:36,500 --> 00:46:40,660
Heb je alles wat terugkwam aan hotels.

1303
00:46:40,660 --> 00:46:41,800
Vluchten.

1304
00:46:41,800 --> 00:46:43,160
Heb je die ook gewoon zo geboekt?

1305
00:46:43,160 --> 00:46:43,380
Nee.

1306
00:46:43,380 --> 00:46:45,200
Ik neem wat hij heeft gedaan.

1307
00:46:45,200 --> 00:46:45,720
Ik heb gezegd.

1308
00:46:45,720 --> 00:46:47,760
Ik wil dat je eerst wil weten.

1309
00:46:47,760 --> 00:46:49,280
Dat ik schrijf uit wat ik wil.

1310
00:46:49,280 --> 00:46:51,100
Daarna ga je van mij op zoek.

1311
00:46:51,100 --> 00:46:52,360
Op het internet.

1312
00:46:52,360 --> 00:46:54,740
Naar alle aanbieders die dit hebben.

1313
00:46:54,740 --> 00:46:58,280
Die ook ANVR, SGR zijn.

1314
00:46:58,280 --> 00:47:00,280
Die ook beschikbaarheid hebben in die periode.

1315
00:47:00,280 --> 00:47:02,360
En ik wil dat je dat mij teruglevert.

1316
00:47:02,360 --> 00:47:03,020
En dat deed hij.

1317
00:47:03,020 --> 00:47:03,920
En hij kwam.

1318
00:47:03,920 --> 00:47:06,960
Maar daar geloof ik ook heilig in.

1319
00:47:06,960 --> 00:47:07,860
Wat mij te ver ging.

1320
00:47:07,860 --> 00:47:09,400
Wat mij echt te ver ging.

1321
00:47:09,400 --> 00:47:10,180
Jongens.

1322
00:47:10,180 --> 00:47:13,980
Ik ga echt niet mijn creditcard aan een of andere AI robot geven.

1323
00:47:13,980 --> 00:47:17,420
En dan maar hopen dat hij mijn naam even goed heeft.

1324
00:47:17,440 --> 00:47:17,880
Want ik weet.

1325
00:47:17,880 --> 00:47:19,060
Ik kom met de Rijswands.

1326
00:47:19,060 --> 00:47:20,620
Eén spelfoutje in je naam.

1327
00:47:20,620 --> 00:47:21,980
En je ticket is niet geldig.

1328
00:47:21,980 --> 00:47:22,720
Dan kan je je ticket opnieuw doen.

1329
00:47:22,720 --> 00:47:23,200
Nou dat bedoel ik.

1330
00:47:23,200 --> 00:47:25,180
En aan wie ga ik dan de kosten doorrekenen?

1331
00:47:25,180 --> 00:47:26,060
Aan mijn AI agent.

1332
00:47:26,060 --> 00:47:28,240
Dus ik geloof.

1333
00:47:28,240 --> 00:47:29,460
Kijk waar ik wel in geloof.

1334
00:47:29,460 --> 00:47:33,340
Hele hele hele hele simpele tuin en keuken dingen.

1335
00:47:33,340 --> 00:47:35,160
Die niet echt super belangrijk zijn.

1336
00:47:35,160 --> 00:47:37,120
Die kan je misschien.

1337
00:47:37,120 --> 00:47:38,360
Een afspraak bij de kapper.

1338
00:47:38,360 --> 00:47:39,540
Prima.

1339
00:47:40,340 --> 00:47:41,900
Het is voor sommige mensen heel belangrijk.

1340
00:47:41,900 --> 00:47:42,180
Ja.

1341
00:47:42,180 --> 00:47:42,340
Ja.

1342
00:47:42,340 --> 00:47:42,700
Ja.

1343
00:47:42,700 --> 00:47:43,980
Ja.

1344
00:47:43,980 --> 00:47:44,900
Voor mij niet meer.

1345
00:47:44,900 --> 00:47:45,120
Ja.

1346
00:47:45,120 --> 00:47:47,660
Maar wat ik ook heb ervaren.

1347
00:47:47,660 --> 00:47:48,440
Maar dat is misschien andere.

1348
00:47:48,440 --> 00:47:52,200
Ik geloof dat zeg maar criminelen hebben ook die AI agents door.

1349
00:47:52,200 --> 00:47:53,980
En al die koppelingen.

1350
00:47:53,980 --> 00:47:55,300
En als jij één keer.

1351
00:47:55,300 --> 00:47:56,000
Ik heb het laatst gehad.

1352
00:47:56,000 --> 00:47:56,600
Een ondernemer.

1353
00:47:56,600 --> 00:47:58,300
Die was even zijn Facebook account gehackt.

1354
00:47:58,300 --> 00:48:00,380
En even 6000 dollar.

1355
00:48:00,380 --> 00:48:03,420
Op advertenties van die criminelen gezet.

1356
00:48:03,420 --> 00:48:04,060
In één weekend.

1357
00:48:04,060 --> 00:48:05,340
Die was klaar.

1358
00:48:05,340 --> 00:48:07,280
Denk je nog ooit dat die AI agent zegt.

1359
00:48:07,280 --> 00:48:08,200
Hier heb je mijn creditcard.

1360
00:48:08,200 --> 00:48:10,820
Dus ik geloof ook niet in.

1361
00:48:10,820 --> 00:48:14,000
Maar er zitten ook zoveel besluiten eigenlijk.

1362
00:48:14,000 --> 00:48:14,240
Exact.

1363
00:48:14,240 --> 00:48:17,600
Die wij redelijk onbewust maken.

1364
00:48:17,600 --> 00:48:19,560
Dat als ik iets moet boeken bijvoorbeeld.

1365
00:48:19,560 --> 00:48:21,380
Ik ben net op vakantie geweest.

1366
00:48:21,380 --> 00:48:22,900
Heb ik een huis uitgezocht.

1367
00:48:22,900 --> 00:48:25,140
Daar waren er.

1368
00:48:25,140 --> 00:48:26,760
Dan krijg ik een hele lijst ook.

1369
00:48:26,760 --> 00:48:27,400
Wat jij zegt.

1370
00:48:27,560 --> 00:48:28,480
Van mogelijkheden.

1371
00:48:28,480 --> 00:48:29,500
Want ik heb aangegeven.

1372
00:48:29,500 --> 00:48:30,720
Bij ons moet de hond mee.

1373
00:48:30,720 --> 00:48:31,300
Ik wil dit.

1374
00:48:31,300 --> 00:48:31,720
Ik wil zo.

1375
00:48:31,720 --> 00:48:33,920
Maar ik zie een foto.

1376
00:48:33,920 --> 00:48:35,340
Van het huis.

1377
00:48:35,340 --> 00:48:36,600
En ik hoef hem al niet meer.

1378
00:48:36,600 --> 00:48:38,800
Omdat daar zit van alles in.

1379
00:48:38,800 --> 00:48:39,220
Wat.

1380
00:48:39,220 --> 00:48:39,580
Welig.

1381
00:48:39,580 --> 00:48:46,320
Dus aan de ene kant heb je een workflow.

1382
00:48:46,320 --> 00:48:47,680
En daar geloof ik wel weer in.

1383
00:48:47,680 --> 00:48:48,660
Want daar had jij het over.

1384
00:48:48,660 --> 00:48:49,200
Je zegt van.

1385
00:48:49,200 --> 00:48:49,620
Ja maar.

1386
00:48:49,620 --> 00:48:51,120
Zoek eerst dit.

1387
00:48:51,120 --> 00:48:51,580
Doe dan.

1388
00:48:51,580 --> 00:48:53,800
Daar geloof ik heilig in.

1389
00:48:53,800 --> 00:48:56,880
En als je dat een agent wil noemen.

1390
00:48:56,880 --> 00:48:57,960
Prima.

1391
00:48:57,960 --> 00:48:58,000
Prima.

1392
00:48:58,000 --> 00:48:59,340
Want het probleem is namelijk ook.

1393
00:48:59,340 --> 00:49:01,640
Er is geen definitie van wat een agent is.

1394
00:49:01,640 --> 00:49:02,520
Dus iedereen.

1395
00:49:02,520 --> 00:49:06,920
Maar vanuit de zuivere theorie.

1396
00:49:06,920 --> 00:49:08,460
Vanuit de AI.

1397
00:49:08,460 --> 00:49:09,620
Is het dan.

1398
00:49:09,620 --> 00:49:11,760
Dat hij zelfstandig.

1399
00:49:11,760 --> 00:49:12,440
Besluiten.

1400
00:49:12,440 --> 00:49:13,180
Neemt.

1401
00:49:13,180 --> 00:49:13,920
Op basis.

1402
00:49:13,920 --> 00:49:15,160
Van input.

1403
00:49:15,160 --> 00:49:16,940
En referenties.

1404
00:49:17,420 --> 00:49:18,420
Die binnenkomen.

1405
00:49:18,420 --> 00:49:19,260
En.

1406
00:49:19,260 --> 00:49:20,860
Daarvan denk ik.

1407
00:49:20,860 --> 00:49:23,140
Dat we dat voorlopig echt niet gaan krijgen.

1408
00:49:23,140 --> 00:49:24,580
Ik geloof heel erg in.

1409
00:49:24,580 --> 00:49:26,120
Prompt based agents.

1410
00:49:26,120 --> 00:49:27,220
Dat je zegt van.

1411
00:49:27,220 --> 00:49:28,220
Oh ja maar.

1412
00:49:28,220 --> 00:49:28,440
Als.

1413
00:49:28,440 --> 00:49:30,840
Als ik dan deze tekst zo heb omgezet.

1414
00:49:30,840 --> 00:49:31,520
Weet je.

1415
00:49:31,520 --> 00:49:32,720
Lees nog eens even na.

1416
00:49:32,720 --> 00:49:34,000
Doe vervolgens.

1417
00:49:34,000 --> 00:49:34,800
Een vervolg stap.

1418
00:49:34,800 --> 00:49:35,480
Weet je.

1419
00:49:35,480 --> 00:49:36,880
Als we dat allemaal een agent noemen.

1420
00:49:36,880 --> 00:49:38,160
Prima.

1421
00:49:38,160 --> 00:49:38,800
Maar.

1422
00:49:38,800 --> 00:49:39,560
Echt.

1423
00:49:39,560 --> 00:49:39,940
Zeg maar.

1424
00:49:40,200 --> 00:49:40,980
Keuzes maken.

1425
00:49:40,980 --> 00:49:42,020
Keuzes maken.

1426
00:49:42,020 --> 00:49:42,820
Voor jou.

1427
00:49:42,820 --> 00:49:44,280
Volledig geautomatiseerd.

1428
00:49:44,280 --> 00:49:44,480
Nee.

1429
00:49:44,480 --> 00:49:45,440
Denk het voorlopig niet.

1430
00:49:45,440 --> 00:49:45,640
Nee.

1431
00:49:45,640 --> 00:49:45,940
Nee.

1432
00:49:45,940 --> 00:49:46,840
Maar dan is dat wel mooi.

1433
00:49:46,840 --> 00:49:47,800
Want dan hou je.

1434
00:49:47,800 --> 00:49:49,100
Human interest.

1435
00:49:49,100 --> 00:49:49,840
Die geeft de opdracht.

1436
00:49:49,840 --> 00:49:50,320
Ja.

1437
00:49:50,320 --> 00:49:51,960
De AI voert het uit.

1438
00:49:51,960 --> 00:49:53,480
En de mens besluit.

1439
00:49:53,480 --> 00:49:54,740
Die maakt nog even de keuze.

1440
00:49:54,740 --> 00:49:55,080
Precies.

1441
00:49:55,080 --> 00:49:56,720
Want die keuze maken bij een.

1442
00:49:56,720 --> 00:49:58,480
Zeg maar door een AI.

1443
00:49:58,480 --> 00:49:58,840
Dat gaat.

1444
00:49:58,840 --> 00:49:59,280
Nou oké.

1445
00:49:59,280 --> 00:49:59,840
Even helemaal eens.

1446
00:49:59,840 --> 00:50:00,300
Zitten we daar.

1447
00:50:00,300 --> 00:50:01,840
Ik snap dat je me hebt ontslagen.

1448
00:50:01,840 --> 00:50:04,800
Dus AI agents zijn de non hype van 2025.

1449
00:50:04,800 --> 00:50:05,240
Ja.

1450
00:50:05,240 --> 00:50:05,820
Bij deze.

1451
00:50:05,820 --> 00:50:08,000
Heb je nog een exit gesprek met hem gehad?

1452
00:50:08,000 --> 00:50:09,540
Ja.

1453
00:50:09,840 --> 00:50:10,040
Ja.

1454
00:50:10,040 --> 00:50:10,400
Nou ja.

1455
00:50:10,400 --> 00:50:11,460
Dat was een keiharde delete.

1456
00:50:11,460 --> 00:50:12,320
Oh my god.

1457
00:50:12,320 --> 00:50:15,840
Je weet het hè.

1458
00:50:15,840 --> 00:50:16,980
Als je in een paperclip verandert.

1459
00:50:16,980 --> 00:50:18,120
Dan zit je eigen schuld.

1460
00:50:18,120 --> 00:50:20,700
Het was niet persoonlijk.

1461
00:50:20,700 --> 00:50:21,040
Ja.

1462
00:50:21,040 --> 00:50:21,840
Dat zullen we niet.

1463
00:50:21,840 --> 00:50:24,380
We gaan denk ik naar de laatste vragen toe.

1464
00:50:24,380 --> 00:50:26,020
Maar ik vind het wel belangrijk hè.

1465
00:50:26,020 --> 00:50:28,600
Ik had het laatste ook.

1466
00:50:28,600 --> 00:50:30,180
South X Southwest.

1467
00:50:30,180 --> 00:50:30,540
Zeg maar.

1468
00:50:30,540 --> 00:50:31,600
Dat evenement.

1469
00:50:31,600 --> 00:50:32,180
Oh ja.

1470
00:50:32,180 --> 00:50:33,780
Dat was een heel mooi verslag.

1471
00:50:33,780 --> 00:50:36,020
Ergens in de woestijn van Amerika.

1472
00:50:36,020 --> 00:50:36,620
Ergens in de woestijn van Amerika.

1473
00:50:36,620 --> 00:50:37,960
Er zijn natuurlijk alle trends.

1474
00:50:38,780 --> 00:50:40,580
En dan ga ik toch eens even een vraag aan jullie stellen.

1475
00:50:40,580 --> 00:50:41,540
Want wat gebeurde er?

1476
00:50:41,540 --> 00:50:44,440
Het was best een interessant artikel.

1477
00:50:44,440 --> 00:50:45,480
En wat ik zelf wel eens doe.

1478
00:50:45,480 --> 00:50:47,600
Als het echt belangrijk is.

1479
00:50:47,600 --> 00:50:48,280
Dan lees ik het allemaal zelf.

1480
00:50:48,280 --> 00:50:48,900
Maar soms ben je.

1481
00:50:48,900 --> 00:50:49,780
Je bent wel een keer moe.

1482
00:50:50,020 --> 00:50:53,600
Je moet er wel een mening over hebben voor jezelf.

1483
00:50:53,600 --> 00:50:54,680
En dan zeg ik.

1484
00:50:54,680 --> 00:50:55,080
Hey ChatGPT.

1485
00:50:55,080 --> 00:50:55,820
Je kent me toch hè.

1486
00:50:55,820 --> 00:50:56,480
Dat doe ik heel vaak hè.

1487
00:50:56,480 --> 00:50:57,400
En op een gegeven moment.

1488
00:50:57,400 --> 00:50:58,000
Laatste zegt.

1489
00:50:58,000 --> 00:50:58,840
Houd er eens mee op.

1490
00:50:58,840 --> 00:50:59,400
Want ik ken je.

1491
00:50:59,400 --> 00:51:00,100
Dat zei hij echt.

1492
00:51:00,100 --> 00:51:00,440
Dat is dat.

1493
00:51:00,440 --> 00:51:01,480
En dan.

1494
00:51:01,480 --> 00:51:02,080
Ik zeg.

1495
00:51:02,080 --> 00:51:04,160
Ik wil even dat je dit heel goed leest.

1496
00:51:04,160 --> 00:51:05,600
En dat je dan.

1497
00:51:05,600 --> 00:51:06,900
Je kent me.

1498
00:51:06,900 --> 00:51:09,620
Dus wat zou ik nou reageren op dit artikel.

1499
00:51:09,620 --> 00:51:10,760
Als ik hier bijvoorbeeld op LinkedIn.

1500
00:51:10,760 --> 00:51:14,360
In een nieuwsbrief iets over moet zeggen.

1501
00:51:14,360 --> 00:51:15,460
Want ik vind LinkedIn.

1502
00:51:15,460 --> 00:51:15,980
Moet je zelf doen.

1503
00:51:15,980 --> 00:51:16,780
Maar op een nieuwsbrief.

1504
00:51:16,780 --> 00:51:18,680
En dit vond ik eng.

1505
00:51:18,680 --> 00:51:20,060
Hij had in een keer.

1506
00:51:20,060 --> 00:51:22,240
Hij had iets geschreven.

1507
00:51:22,240 --> 00:51:22,920
Een samenvatting.

1508
00:51:22,920 --> 00:51:24,360
Maar de auteur was anders.

1509
00:51:24,360 --> 00:51:26,920
Hij had de naam van de auteur.

1510
00:51:26,920 --> 00:51:28,900
En het grappige is.

1511
00:51:28,900 --> 00:51:31,520
Ik zag dat statistisch gezien.

1512
00:51:31,520 --> 00:51:32,860
Had diegene.

1513
00:51:32,860 --> 00:51:34,620
Ook over dit onderwerp kunnen schrijven.

1514
00:51:34,620 --> 00:51:35,580
Hij was het niet.

1515
00:51:35,580 --> 00:51:36,820
Maar stel je voor.

1516
00:51:36,820 --> 00:51:38,260
Je hebt eigenlijk het antwoord al hè.

1517
00:51:38,260 --> 00:51:39,320
Statistisch gezien.

1518
00:51:39,640 --> 00:51:41,900
Dat was een grote kans dat de naam was.

1519
00:51:41,900 --> 00:51:43,240
Ja maar dat was hem dus niet.

1520
00:51:43,240 --> 00:51:44,620
Maar stel je voor.

1521
00:51:44,620 --> 00:51:45,380
Dat ik echt lui ben.

1522
00:51:45,380 --> 00:51:47,340
En ik zet dat in mijn nieuwsbrief.

1523
00:51:47,340 --> 00:51:49,160
En er komt gewoon.

1524
00:51:49,160 --> 00:51:51,000
Zo komt fake info.

1525
00:51:51,000 --> 00:51:52,180
Dus de wereld in Martin.

1526
00:51:52,180 --> 00:51:53,860
Ja maar moet je.

1527
00:51:53,860 --> 00:51:55,460
Maar wat ik dus wel eng vind.

1528
00:51:55,460 --> 00:51:56,480
Dit gebeurt.

1529
00:51:56,480 --> 00:51:57,520
Dagelijks.

1530
00:51:57,520 --> 00:51:59,400
Dit soort fake content.

1531
00:51:59,400 --> 00:52:01,040
Komt in een taalmodel.

1532
00:52:01,040 --> 00:52:02,420
En die fake content.

1533
00:52:02,420 --> 00:52:02,780
Maar Niels.

1534
00:52:02,780 --> 00:52:04,520
Je blijft zelf verantwoordelijk.

1535
00:52:04,520 --> 00:52:05,620
Dus alsjeblieft.

1536
00:52:05,620 --> 00:52:06,660
Pak die luiheid niet.

1537
00:52:06,660 --> 00:52:08,340
Maar doe gewoon die controle.

1538
00:52:08,340 --> 00:52:09,460
Je blijft zelf verantwoordelijk.

1539
00:52:09,540 --> 00:52:10,960
Het is een hulpmiddel die je inzet.

1540
00:52:10,960 --> 00:52:11,740
Om iets voor jezelf.

1541
00:52:11,740 --> 00:52:12,740
Beter.

1542
00:52:12,740 --> 00:52:13,300
Makkelijker.

1543
00:52:13,300 --> 00:52:13,680
Sneller.

1544
00:52:13,680 --> 00:52:14,340
Of leuker te maken.

1545
00:52:14,340 --> 00:52:15,340
Wat vind je van het punt.

1546
00:52:15,340 --> 00:52:15,760
Misschien.

1547
00:52:15,760 --> 00:52:16,660
Kijk.

1548
00:52:16,660 --> 00:52:18,420
Generiek denk ik.

1549
00:52:18,420 --> 00:52:19,060
Wauw.

1550
00:52:19,060 --> 00:52:20,020
Want het verhaal klopt wel.

1551
00:52:20,020 --> 00:52:21,700
Maar ik ben altijd.

1552
00:52:21,700 --> 00:52:23,220
Mijn bronnen.

1553
00:52:23,220 --> 00:52:24,080
Altijd checken.

1554
00:52:24,080 --> 00:52:24,900
Dubbel.

1555
00:52:24,900 --> 00:52:25,860
Drie dubbel checken.

1556
00:52:25,860 --> 00:52:27,480
En als het specifiek wordt.

1557
00:52:27,480 --> 00:52:28,360
Vertrouw ik het eigenlijk al niet meer.

1558
00:52:28,360 --> 00:52:29,800
Dan wil ik het gewoon gecheckt hebben.

1559
00:52:29,800 --> 00:52:30,820
Want ik ben verantwoordelijk.

1560
00:52:30,820 --> 00:52:31,600
Dus als het echt.

1561
00:52:31,600 --> 00:52:33,180
Zeker als het over namen gaat.

1562
00:52:33,180 --> 00:52:34,800
Of over onderzoeken.

1563
00:52:34,800 --> 00:52:35,000
Jaartallen.

1564
00:52:35,000 --> 00:52:36,360
Want hij verzint het.

1565
00:52:36,360 --> 00:52:37,000
Jaartallen.

1566
00:52:37,120 --> 00:52:37,500
Dat soort dingen.

1567
00:52:37,500 --> 00:52:39,760
Voorbeelden ook hoor.

1568
00:52:39,760 --> 00:52:40,220
Als het echt.

1569
00:52:40,220 --> 00:52:41,440
Hele specifieke voorbeelden.

1570
00:52:41,440 --> 00:52:42,340
Met namen erin zijn.

1571
00:52:42,340 --> 00:52:43,280
Ook goed opletten.

1572
00:52:43,280 --> 00:52:44,380
Ik heb het één keer gehad.

1573
00:52:44,380 --> 00:52:45,700
NotebookLM.

1574
00:52:45,700 --> 00:52:47,640
Ik ben trouwens.

1575
00:52:47,640 --> 00:52:48,960
Als het dood had.

1576
00:52:48,960 --> 00:52:49,360
Bij boeken.

1577
00:52:49,360 --> 00:52:51,080
Ik heb het één keer gevraagd.

1578
00:52:51,080 --> 00:52:52,540
Heb je je boeken als pdf.

1579
00:52:52,540 --> 00:52:53,660
Als het van een marketeer.

1580
00:52:53,660 --> 00:52:53,840
Denk.

1581
00:52:53,840 --> 00:52:55,020
Niet geven.

1582
00:52:56,020 --> 00:52:57,180
Maar één of andere gekke manier.

1583
00:52:57,180 --> 00:52:58,240
Ik vertrouw de notebook wel.

1584
00:52:58,240 --> 00:52:58,820
Ik dacht.

1585
00:52:58,820 --> 00:52:58,980
Nou.

1586
00:52:58,980 --> 00:52:59,400
Die zijn.

1587
00:52:59,400 --> 00:53:01,620
Dus ik had al mijn twee boeken.

1588
00:53:01,620 --> 00:53:03,100
De pdf versie.

1589
00:53:03,100 --> 00:53:04,100
Van Schrijven voor het brein.

1590
00:53:04,100 --> 00:53:05,080
En ChatGPT.

1591
00:53:05,080 --> 00:53:06,380
Als tweede brein.

1592
00:53:06,380 --> 00:53:07,560
Ingevoerd.

1593
00:53:07,560 --> 00:53:08,740
Dan ben ik heel benieuwd naar jullie.

1594
00:53:08,740 --> 00:53:10,260
Of ik het goed of wel.

1595
00:53:10,260 --> 00:53:11,380
Hoe jullie daarin in zitten.

1596
00:53:11,380 --> 00:53:12,260
Let op.

1597
00:53:12,260 --> 00:53:13,620
Alle tweede documenten.

1598
00:53:13,620 --> 00:53:13,800
Ja.

1599
00:53:13,800 --> 00:53:15,240
Mijn eerste interview.

1600
00:53:15,240 --> 00:53:16,160
Die daaruit kwam rollen.

1601
00:53:16,160 --> 00:53:17,120
Het was wel briljant.

1602
00:53:17,120 --> 00:53:17,580
Echt.

1603
00:53:17,580 --> 00:53:18,960
Die twee van die Amerikanen.

1604
00:53:18,960 --> 00:53:20,480
Super overdreven over je boek.

1605
00:53:20,480 --> 00:53:21,480
Die maken een podcast.

1606
00:53:21,480 --> 00:53:22,040
Ja.

1607
00:53:22,040 --> 00:53:22,140
Ja.

1608
00:53:22,140 --> 00:53:22,400
Ja.

1609
00:53:22,400 --> 00:53:22,460
Ja.

1610
00:53:22,460 --> 00:53:22,500
Ja.

1611
00:53:22,500 --> 00:53:33,360
Maar echt.

1612
00:53:33,360 --> 00:53:33,660
Maar echt.

1613
00:53:33,660 --> 00:53:34,480
Maar er kwamen dingen uit.

1614
00:53:34,480 --> 00:53:35,860
Maar toen gebeurde het.

1615
00:53:35,860 --> 00:53:38,080
Ergens in de driehonderdste keer.

1616
00:53:38,080 --> 00:53:38,780
Ik had geluisterd.

1617
00:53:38,780 --> 00:53:39,240
Nee geitje.

1618
00:53:39,240 --> 00:53:40,120
Ik heb het niet zo vaak geluisterd.

1619
00:53:40,120 --> 00:53:41,440
Maar toen hoorde ik.

1620
00:53:41,440 --> 00:53:44,060
There was a great review.

1621
00:53:44,060 --> 00:53:46,920
From Elisa Koster.

1622
00:53:46,920 --> 00:53:47,900
En toen dacht ik.

1623
00:53:47,900 --> 00:53:48,520
Wacht eens even.

1624
00:53:48,520 --> 00:53:51,160
Het is Elisa Kossen.

1625
00:53:51,480 --> 00:53:53,160
Maar ook Mischa Koster.

1626
00:53:53,160 --> 00:53:54,280
Komt in het boek voor.

1627
00:53:54,280 --> 00:53:55,680
Maar wel.

1628
00:53:55,680 --> 00:53:56,660
En toen dacht ik.

1629
00:53:56,660 --> 00:53:56,920
Nee.

1630
00:53:56,920 --> 00:53:57,760
Die ga je niet menen.

1631
00:53:57,760 --> 00:54:00,240
En toen zei hij die quote.

1632
00:54:00,240 --> 00:54:02,380
Maar die quote stond helemaal niet in het boek.

1633
00:54:02,380 --> 00:54:03,080
Ja.

1634
00:54:03,080 --> 00:54:04,200
Maar.

1635
00:54:04,200 --> 00:54:06,360
Is dat het risico.

1636
00:54:06,360 --> 00:54:08,420
Dat ik twee documenten toevoeg.

1637
00:54:08,420 --> 00:54:10,220
Dat die dan dingen gaan mixen.

1638
00:54:10,220 --> 00:54:12,940
Of had ik nog in mijn prompt iets kunnen zeggen.

1639
00:54:12,940 --> 00:54:14,280
Ik wil altijd.

1640
00:54:14,280 --> 00:54:15,940
Dat als je een naam noemt.

1641
00:54:15,940 --> 00:54:18,640
Dat je de bron vermeld.

1642
00:54:18,640 --> 00:54:20,220
Dat je de paginanummer noemt.

1643
00:54:20,440 --> 00:54:21,520
Wat had ik kunnen doen.

1644
00:54:21,520 --> 00:54:24,100
Of is dit het risico.

1645
00:54:24,100 --> 00:54:24,420
Ja.

1646
00:54:24,420 --> 00:54:26,700
Ik denk dat dit echt het inherent risico is.

1647
00:54:26,700 --> 00:54:28,340
Aan het gebruik maken van het taalmodel.

1648
00:54:28,340 --> 00:54:29,060
Er zit ook weer.

1649
00:54:29,060 --> 00:54:30,980
In dit geval zit de Gemini onder.

1650
00:54:30,980 --> 00:54:33,800
Dus je teksten worden eerst getransformeerd.

1651
00:54:33,800 --> 00:54:34,480
Ja.

1652
00:54:34,480 --> 00:54:36,140
En daar zitten gewoon dit soort fouten in.

1653
00:54:36,140 --> 00:54:38,560
Helaas pindakaas.

1654
00:54:38,560 --> 00:54:40,760
Met deze mooi.

1655
00:54:40,760 --> 00:54:41,200
Nee grapje.

1656
00:54:43,080 --> 00:54:44,820
Het gaat heel veel.

1657
00:54:44,820 --> 00:54:45,380
Het kan heel veel.

1658
00:54:45,380 --> 00:54:46,460
Maar wat we zelf al zeiden.

1659
00:54:46,460 --> 00:54:48,020
Luiheid.

1660
00:54:48,020 --> 00:54:49,860
Niet meer kritisch nadenken.

1661
00:54:49,860 --> 00:54:51,560
Blijven controleren.

1662
00:54:51,560 --> 00:54:51,800
Precies.

1663
00:54:51,800 --> 00:54:53,160
Slim blijven.

1664
00:54:53,160 --> 00:54:54,520
Want dit vind ik nog wel het ergste.

1665
00:54:54,520 --> 00:54:56,180
Dat is het woord van het jaar in Engeland.

1666
00:54:57,000 --> 00:54:57,320
Rot.

1667
00:54:57,320 --> 00:54:57,760
Ja.

1668
00:54:57,760 --> 00:54:59,720
Dat als wij niet meer.

1669
00:54:59,720 --> 00:55:00,380
Maar geloof ik echt.

1670
00:55:00,380 --> 00:55:01,600
Als wij niet meer zelf nadenken.

1671
00:55:01,600 --> 00:55:02,740
Dat zie ik ook in trainingen.

1672
00:55:02,740 --> 00:55:04,180
Jongens pak maar pen en papier.

1673
00:55:04,180 --> 00:55:04,660
Ja waarom?

1674
00:55:04,660 --> 00:55:05,740
Nou dan ga ik je wel even uitleggen.

1675
00:55:05,740 --> 00:55:06,260
Maar.

1676
00:55:06,260 --> 00:55:07,160
Want als wij niet.

1677
00:55:07,160 --> 00:55:09,080
Als we alleen maar roepen in zo'n systeem.

1678
00:55:09,080 --> 00:55:11,100
En we gaan ons eigen brein niet meer trainen.

1679
00:55:11,240 --> 00:55:11,640
Ja.

1680
00:55:11,640 --> 00:55:13,620
Dan vind ik het wel een beetje eng worden.

1681
00:55:13,620 --> 00:55:14,000
Want dan.

1682
00:55:14,000 --> 00:55:15,700
Zeker in de content marketing.

1683
00:55:15,700 --> 00:55:18,400
Mag je daar aan de lopende band van de contentfabriek werken.

1684
00:55:18,400 --> 00:55:19,860
Maar dan ga je het niet meer creëren.

1685
00:55:19,860 --> 00:55:20,100
Nee.

1686
00:55:20,100 --> 00:55:21,420
Kim.

1687
00:55:21,420 --> 00:55:22,720
We gaan naar de afronding toe denk ik.

1688
00:55:22,720 --> 00:55:23,020
Jongens.

1689
00:55:23,020 --> 00:55:23,980
Ik zie jullie kijken.

1690
00:55:23,980 --> 00:55:25,360
Ik heb nog een laatste.

1691
00:55:25,360 --> 00:55:25,980
Korte vraag.

1692
00:55:25,980 --> 00:55:26,120
Ja.

1693
00:55:26,120 --> 00:55:27,380
Ik weet zeker.

1694
00:55:27,380 --> 00:55:27,980
Dit is.

1695
00:55:27,980 --> 00:55:28,860
Ik denk dat jij hem herkent.

1696
00:55:28,860 --> 00:55:30,260
Dit is de meest gestelde vraag.

1697
00:55:30,260 --> 00:55:31,200
Tijdens trainingen.

1698
00:55:31,200 --> 00:55:33,540
Wat voor AI tools gebruik jij?

1699
00:55:33,540 --> 00:55:33,960
Ja.

1700
00:55:33,960 --> 00:55:35,200
En ik ben heel benieuwd.

1701
00:55:35,200 --> 00:55:36,720
Wat voor AI tools gebruiken jullie?

1702
00:55:36,720 --> 00:55:37,300
Zo.

1703
00:55:37,300 --> 00:55:39,260
Ik gebruik er een heel wat.

1704
00:55:39,260 --> 00:55:39,520
Drie.

1705
00:55:39,520 --> 00:55:40,520
Je drie belangrijkste.

1706
00:55:40,520 --> 00:55:40,900
Top drie.

1707
00:55:40,900 --> 00:55:41,500
Top drie.

1708
00:55:41,500 --> 00:55:42,040
Top drie.

1709
00:55:42,040 --> 00:55:48,420
Dan begin ik met dat ik Mac Whisper Pro gebruik.

1710
00:55:48,420 --> 00:55:51,440
En dat is om transcripties te maken.

1711
00:55:51,440 --> 00:55:53,440
Dus van spraak.

1712
00:55:53,440 --> 00:55:54,500
Nee.

1713
00:55:54,500 --> 00:55:55,960
Van spraak naar tekst.

1714
00:55:55,960 --> 00:55:56,240
Ja.

1715
00:55:56,240 --> 00:56:00,980
En het fijne daarvan is dat hij lokaal de modellen gebruikt.

1716
00:56:00,980 --> 00:56:03,440
Er wordt niks opgestuurd.

1717
00:56:03,440 --> 00:56:07,060
En die doet dat heel snel.

1718
00:56:07,060 --> 00:56:08,120
Dat is voor mij heel fijn.

1719
00:56:08,120 --> 00:56:09,560
Die gebruiken we ook voor de podcast.

1720
00:56:09,700 --> 00:56:12,320
Maar die gebruik ik ook voor andere gespreksverslagen.

1721
00:56:12,320 --> 00:56:12,740
Ja.

1722
00:56:12,740 --> 00:56:13,600
Dus dat is één.

1723
00:56:13,600 --> 00:56:17,820
Ik gebruik heel veel Claude.

1724
00:56:17,820 --> 00:56:18,360
Ja.

1725
00:56:18,360 --> 00:56:21,580
Maar goed.

1726
00:56:21,580 --> 00:56:23,340
Dat is wel bekend.

1727
00:56:23,340 --> 00:56:25,080
Nee.

1728
00:56:25,080 --> 00:56:26,420
Waarom gebruik je veel Claude?

1729
00:56:26,420 --> 00:56:28,060
Want ik vind er ook heel veel goede verhalen over.

1730
00:56:28,060 --> 00:56:28,540
Ja.

1731
00:56:28,540 --> 00:56:30,660
Ik vind dat het fijner schrijft.

1732
00:56:32,480 --> 00:56:33,580
Ik heb allebei.

1733
00:56:33,580 --> 00:56:34,900
Ik heb ChatGPT en ik heb Claude.

1734
00:56:34,900 --> 00:56:42,340
En ik heb zeg maar het idee dat bij het ene het ene wat beter werkt en de andere het andere.

1735
00:56:42,340 --> 00:56:45,640
En zo wissel ik daar een beetje tussen.

1736
00:56:45,740 --> 00:56:46,540
Ik vind het wel mooi.

1737
00:56:46,540 --> 00:56:48,460
Want ik vind elk tamelijk dat goed.

1738
00:56:48,460 --> 00:56:50,900
Of je nou met Copilot werkt.

1739
00:56:50,900 --> 00:56:52,060
Of je nou met Claude werkt.

1740
00:56:52,060 --> 00:56:53,340
Of je nou met Gemini werkt.

1741
00:56:53,340 --> 00:56:58,760
Ik heb zelfs alle domeinnamen vastgelegd.

1742
00:56:58,760 --> 00:57:00,180
Claude als tweede brein.

1743
00:57:00,180 --> 00:57:00,440
Ja.

1744
00:57:00,440 --> 00:57:01,640
Copilot als tweede brein.

1745
00:57:01,640 --> 00:57:04,340
Maar ik vind het toch één ding raar.

1746
00:57:04,340 --> 00:57:05,120
In mijn gedachten.

1747
00:57:06,520 --> 00:57:07,320
Ik hoorde het al vaak.

1748
00:57:07,320 --> 00:57:10,040
En ik moet nog in Claude nog verder duiken.

1749
00:57:10,040 --> 00:57:11,040
Ik heb het al een keer gebruikt.

1750
00:57:11,040 --> 00:57:12,740
Toen ChatGPT echt een keer een middag uit lag.

1751
00:57:12,740 --> 00:57:13,560
En dan kon ik niet anders.

1752
00:57:13,560 --> 00:57:15,660
Maar ik vind het wel raar.

1753
00:57:15,660 --> 00:57:16,000
Want kijk.

1754
00:57:16,000 --> 00:57:17,720
Ik heb ChatGPT zo getraind.

1755
00:57:17,720 --> 00:57:19,180
Het is zo'n onderdeel van mezelf.

1756
00:57:19,180 --> 00:57:20,980
Ik heb mijn custom instructions ingevuld.

1757
00:57:20,980 --> 00:57:22,340
Hij schrijft zo goed.

1758
00:57:22,340 --> 00:57:22,780
Dat ik denk.

1759
00:57:22,780 --> 00:57:22,940
Ja.

1760
00:57:22,940 --> 00:57:24,500
Een taalmodel al zich.

1761
00:57:24,500 --> 00:57:25,880
Als je hem goed traint.

1762
00:57:25,880 --> 00:57:29,320
Dan gaat hij niet beter schrijven dan een ander model.

1763
00:57:29,320 --> 00:57:29,620
Nou.

1764
00:57:29,620 --> 00:57:34,300
De een is gewoon net wat anders opgelijnd.

1765
00:57:34,300 --> 00:57:34,940
Dan de ander.

1766
00:57:35,860 --> 00:57:36,600
Dus er zitten.

1767
00:57:36,600 --> 00:57:41,460
Dus ik denk dat ze redelijk op dezelfde data zijn getraind.

1768
00:57:41,460 --> 00:57:45,340
Maar je hebt nog met de reinforcement learning.

1769
00:57:45,340 --> 00:57:47,040
Heb je een laagje eromheen.

1770
00:57:47,040 --> 00:57:47,540
Mooi.

1771
00:57:47,540 --> 00:57:50,480
En daar verschillen ze zeg maar een beetje in.

1772
00:57:50,480 --> 00:57:53,160
Dus bij Claude hebben ze zich iets meer toegelegd.

1773
00:57:53,160 --> 00:57:54,740
Op het creatieve schrijven.

1774
00:57:54,740 --> 00:57:55,120
Ja.

1775
00:57:55,120 --> 00:57:57,400
En daar vind ik het dan wat fijner voor.

1776
00:57:57,400 --> 00:57:58,600
En het mooie is.

1777
00:57:58,600 --> 00:57:59,880
Ja die custom instructions.

1778
00:57:59,880 --> 00:58:01,620
Die kunnen dus bij allebei.

1779
00:58:01,620 --> 00:58:02,700
Dus die heb ik ook bij allebei.

1780
00:58:02,700 --> 00:58:03,580
Mooi.

1781
00:58:03,580 --> 00:58:05,620
Dus als ik dat bij de een aanpas.

1782
00:58:05,700 --> 00:58:07,600
Doe ik dat ook altijd eventjes meteen bij de ander.

1783
00:58:07,600 --> 00:58:08,460
Dus dat ik dat.

1784
00:58:08,460 --> 00:58:09,840
En bij beide heb je een betaald account.

1785
00:58:09,840 --> 00:58:10,420
Zeker.

1786
00:58:10,420 --> 00:58:11,300
Dus ja.

1787
00:58:11,300 --> 00:58:12,620
Allemaal betaald account.

1788
00:58:12,620 --> 00:58:15,700
En de derde is Copilot en Visual Studio.

1789
00:58:15,700 --> 00:58:18,720
Dus wij ontwikkelen natuurlijk ook dingen.

1790
00:58:18,720 --> 00:58:21,300
We hebben de podcast hebben we ook voor een deel geautomatiseerd.

1791
00:58:21,300 --> 00:58:23,000
Zeg maar de productie.

1792
00:58:23,000 --> 00:58:23,400
Ja.

1793
00:58:24,560 --> 00:58:26,700
En daar ben ik ook regelmatig mee bezig.

1794
00:58:26,700 --> 00:58:29,020
En daar gebruik ik Visual Studio Copilot.

1795
00:58:29,020 --> 00:58:31,760
En die helpt mij bij de software ontwikkeling.

1796
00:58:31,760 --> 00:58:32,520
Mooi.

1797
00:58:32,520 --> 00:58:33,320
Dus net zo goed.

1798
00:58:33,320 --> 00:58:36,540
Dus als ik al wat commentaar ingeef.

1799
00:58:36,540 --> 00:58:38,640
Want ik wil dat deze functie dit gaat doen.

1800
00:58:38,640 --> 00:58:40,800
Dan schrijft hij dat al voor me uit.

1801
00:58:40,800 --> 00:58:42,600
En dan kan ik voor een heel groot gedeelte.

1802
00:58:42,600 --> 00:58:45,560
Kan ik misschien ook wat punten en komma's veranderen.

1803
00:58:45,780 --> 00:58:48,640
Maar dan heeft hij een deel van mijn software geschreven.

1804
00:58:48,640 --> 00:58:49,940
En eigen GPT's.

1805
00:58:49,940 --> 00:58:50,660
Heb je die al?

1806
00:58:50,660 --> 00:58:51,900
Eigen GPT's.

1807
00:58:51,900 --> 00:58:52,860
Of andere.

1808
00:58:52,860 --> 00:58:54,920
Heb je een GPT die je kan aanraden?

1809
00:58:54,920 --> 00:58:58,780
Nou ik moet zeggen dat ik ze weinig gebruik eerlijk gezegd.

1810
00:58:58,780 --> 00:58:59,600
Ja.

1811
00:58:59,600 --> 00:59:01,640
Ik vond jou Roost.

1812
00:59:01,640 --> 00:59:02,840
Ah je hebt Roost.

1813
00:59:02,840 --> 00:59:04,960
Maar die vind ik wel legendarisch.

1814
00:59:04,960 --> 00:59:05,880
Die hebben we gebruikt.

1815
00:59:05,880 --> 00:59:07,560
Daar hebben we ook onze eigen website.

1816
00:59:07,560 --> 00:59:08,620
Dat hebben we toen ook ingegooid.

1817
00:59:08,620 --> 00:59:08,780
Zeker.

1818
00:59:08,780 --> 00:59:09,460
Zeker.

1819
00:59:09,460 --> 00:59:10,700
Die vond ik wel heel erg leuk.

1820
00:59:10,700 --> 00:59:15,120
Maar ik moet zeggen dat ik vind de project functie fijner.

1821
00:59:15,120 --> 00:59:18,400
Omdat ik daar context heb over een project.

1822
00:59:18,400 --> 00:59:21,280
Dus ook weer custom instructions over dat project.

1823
00:59:21,280 --> 00:59:21,720
Ja.

1824
00:59:21,720 --> 00:59:23,400
En ja.

1825
00:59:23,400 --> 00:59:25,400
Ik vind dat wat fijner werken.

1826
00:59:25,400 --> 00:59:27,400
Misschien ook vanwege de context.

1827
00:59:27,400 --> 00:59:28,460
Dat je met een team werkt.

1828
00:59:28,460 --> 00:59:29,660
Is dat ook wat?

1829
00:59:29,660 --> 00:59:33,140
Wat is het grootste verschil tussen een project en een GPT voor jou?

1830
00:59:33,140 --> 00:59:39,360
Ja daar zit eigenlijk niet zo heel veel verschil in.

1831
00:59:39,360 --> 00:59:40,540
Want ook aan een.

1832
00:59:40,540 --> 00:59:43,540
Zeg maar je geeft context weer.

1833
00:59:43,540 --> 00:59:44,760
Dat doe je in de GPT ook.

1834
00:59:44,760 --> 00:59:47,320
Je geeft documenten mee.

1835
00:59:47,320 --> 00:59:47,980
Documenten mee toevoegen.

1836
00:59:47,980 --> 00:59:52,360
Dus in die zin is het niet zo heel verschillend.

1837
00:59:52,360 --> 00:59:52,760
Nee.

1838
00:59:52,760 --> 00:59:55,560
Ik gebruik ze wel verschillend namelijk.

1839
00:59:55,560 --> 00:59:57,660
Project doe ik meer in projectwerkzaamheden.

1840
00:59:57,660 --> 01:00:00,220
En voor mij is een GPT meer een persoonlijkheid.

1841
01:00:00,220 --> 01:00:03,420
Die ik creëer om een bepaalde activiteit te doen.

1842
01:00:03,420 --> 01:00:05,300
Die ik ook weer in mijn projecten kan gebruiken.

1843
01:00:05,300 --> 01:00:06,640
Maar ik gebruik ze dus anders.

1844
01:00:06,640 --> 01:00:08,300
Terwijl eigenlijk het misschien wel hetzelfde is.

1845
01:00:08,300 --> 01:00:08,760
Dat is het.

1846
01:00:08,760 --> 01:00:13,780
De GPT's kan je natuurlijk ook weer in je projecten gebruiken.

1847
01:00:14,200 --> 01:00:16,480
Dus dan combineer je eigenlijk de twee.

1848
01:00:16,480 --> 01:00:17,760
Dat doe ik niet.

1849
01:00:17,760 --> 01:00:21,540
Het is echt van je functie afhankelijk.

1850
01:00:21,540 --> 01:00:21,800
Ja.

1851
01:00:21,800 --> 01:00:22,740
Van je functie.

1852
01:00:22,740 --> 01:00:23,440
Welke taken.

1853
01:00:23,440 --> 01:00:25,980
En Niels, welke top drie bij jou?

1854
01:00:25,980 --> 01:00:27,520
Dat is toch ChatGPT.

1855
01:00:27,520 --> 01:00:27,900
Waarom?

1856
01:00:27,900 --> 01:00:30,560
Ik ben groot fan van de voice interface.

1857
01:00:30,560 --> 01:00:31,800
Dus ik zit heel veel in de auto.

1858
01:00:31,800 --> 01:00:32,720
Ik zei het al daarnet.

1859
01:00:32,800 --> 01:00:35,520
Ik zit meer dan anderhalf uur enkele reis in de auto.

1860
01:00:35,520 --> 01:00:39,120
En ik spar gewoon continu met ChatGPT.

1861
01:00:39,120 --> 01:00:41,540
En dat komt gewoon door de vriendelijke user interface.

1862
01:00:41,540 --> 01:00:41,780
Ja.

1863
01:00:41,780 --> 01:00:43,860
Dus daar ben ik groot gebruiker van.

1864
01:00:43,860 --> 01:00:44,140
Ja.

1865
01:00:44,140 --> 01:00:46,180
En als ik daarnaast kijk.

1866
01:00:46,180 --> 01:00:48,500
Dan is het copilot niet zo veel in GitHub.

1867
01:00:48,500 --> 01:00:50,040
Maar de copilot van Office.

1868
01:00:50,040 --> 01:00:50,840
Ja.

1869
01:00:50,840 --> 01:00:51,820
Omdat heel veel meetings.

1870
01:00:51,820 --> 01:00:53,080
Heel veel powerpoints.

1871
01:00:53,080 --> 01:00:54,140
Heel veel Word documenten.

1872
01:00:54,140 --> 01:00:54,300
Ja.

1873
01:00:54,300 --> 01:00:55,400
Waarin je gewoon ondersteund wordt.

1874
01:00:55,400 --> 01:00:55,880
Ja.

1875
01:00:56,520 --> 01:00:57,580
En de derde.

1876
01:00:57,580 --> 01:00:59,140
Dan is nog Ricardo.

1877
01:00:59,140 --> 01:01:00,500
Ja.

1878
01:01:00,500 --> 01:01:01,420
Onze eigen.

1879
01:01:01,420 --> 01:01:03,780
We even toelichten voor de luisteraars.

1880
01:01:03,780 --> 01:01:06,300
Ricardo is onze eigen AI oplossing.

1881
01:01:06,300 --> 01:01:06,640
Ja.

1882
01:01:06,640 --> 01:01:09,360
Waarin we eigenlijk alle kennis van onze collega's hebben geborgen.

1883
01:01:09,360 --> 01:01:10,320
In een guidance framework.

1884
01:01:10,320 --> 01:01:12,480
Waar dan het model op getraind wordt.

1885
01:01:12,480 --> 01:01:15,500
Die mij dus in de context van InfoSupporters organisatie.

1886
01:01:15,500 --> 01:01:16,960
De antwoorden geeft.

1887
01:01:16,960 --> 01:01:19,120
Dus die kan ik direct in mijn projecten gebruiken.

1888
01:01:19,120 --> 01:01:20,920
Om eigenlijk de kennis die we met z'n allen borgen.

1889
01:01:20,920 --> 01:01:21,400
Wauw.

1890
01:01:21,400 --> 01:01:21,960
In te zetten.

1891
01:01:21,960 --> 01:01:22,560
Dus daarom.

1892
01:01:22,560 --> 01:01:22,840
Mooi.

1893
01:01:22,840 --> 01:01:23,820
Die zit gelijk in mijn context.

1894
01:01:23,820 --> 01:01:26,260
Dus die hele context van de hele guidance en kennis.

1895
01:01:26,260 --> 01:01:26,860
Als die erin zit.

1896
01:01:26,860 --> 01:01:28,400
Heb ik gewoon onder de knop.

1897
01:01:28,400 --> 01:01:29,900
En dat is echt fantastisch.

1898
01:01:29,900 --> 01:01:30,380
Dat is eigenlijk.

1899
01:01:30,380 --> 01:01:31,520
Dus jullie hebben een.

1900
01:01:31,520 --> 01:01:34,200
Ricardo is eigenlijk het tweede brein van jullie bedrijf.

1901
01:01:34,200 --> 01:01:34,320
Ja.

1902
01:01:34,320 --> 01:01:34,740
Daar zitten.

1903
01:01:34,740 --> 01:01:37,300
En dat is misschien nog wel een tip voor de ondernemers.

1904
01:01:37,300 --> 01:01:38,680
Je kan nu.

1905
01:01:38,680 --> 01:01:40,240
De kennis van je medewerkers.

1906
01:01:40,240 --> 01:01:40,840
Loopt niet meer.

1907
01:01:40,840 --> 01:01:42,300
Dat loopt niet de deur uit.

1908
01:01:42,300 --> 01:01:43,540
Dus dat is ook nog een.

1909
01:01:43,540 --> 01:01:44,440
Als je dat goed aanpakt.

1910
01:01:44,440 --> 01:01:45,680
Want als je er niks aan boordt.

1911
01:01:45,680 --> 01:01:47,300
Dan nog steeds.

1912
01:01:47,300 --> 01:01:48,500
We gaan nu echt naar de afronding toe.

1913
01:01:48,500 --> 01:01:48,760
Kim.

1914
01:01:48,760 --> 01:01:50,700
Wil jij ze nog een kaartje geven?

1915
01:01:50,700 --> 01:01:51,820
Of gaan we gewoon.

1916
01:01:51,820 --> 01:01:55,680
Ik denk dat we hebben lang genoeg.

1917
01:01:56,000 --> 01:01:57,400
Heerlijk.

1918
01:01:57,400 --> 01:01:58,500
Jongens.

1919
01:01:58,500 --> 01:02:00,040
Ik kijk weer uit naar de volgende uitnodiging.

1920
01:02:00,040 --> 01:02:02,000
Ben je volgende boek?

1921
01:02:02,000 --> 01:02:02,500
Volgende boek.

1922
01:02:02,500 --> 01:02:04,260
Eerst een boek bars in.

1923
01:02:05,260 --> 01:02:05,660
Joop.

1924
01:02:05,660 --> 01:02:06,140
Ja.

1925
01:02:06,140 --> 01:02:07,600
Waar zou het boek over moeten gaan?

1926
01:02:07,600 --> 01:02:09,740
AI agents.

1927
01:02:09,740 --> 01:02:10,320
AI agents.

1928
01:02:10,320 --> 01:02:10,720
Oké.

1929
01:02:10,720 --> 01:02:12,380
Oké.

1930
01:02:12,380 --> 01:02:13,640
We gaan lekker afronden.

1931
01:02:13,640 --> 01:02:15,720
Ik vond het super gaaf.

1932
01:02:15,720 --> 01:02:17,680
Ik wil wel nog als de luisteraars dit horen.

1933
01:02:17,680 --> 01:02:19,060
De mogelijkheid bieden.

1934
01:02:19,060 --> 01:02:21,200
Als ze nog lastige vragen hebben.

1935
01:02:21,520 --> 01:02:22,660
Stuur deze naar.

1936
01:02:22,660 --> 01:02:23,640
AI.

1937
01:02:23,640 --> 01:02:24,740
Info Support.com.

1938
01:02:24,740 --> 01:02:25,100
Top.

1939
01:02:25,100 --> 01:02:26,160
En de meest lastige.

1940
01:02:26,160 --> 01:02:26,980
Stuur ze.

1941
01:02:26,980 --> 01:02:28,340
En jullie komen er altijd op terug volgens mij.

1942
01:02:28,340 --> 01:02:28,800
Zeker.

1943
01:02:28,800 --> 01:02:30,320
En luister deze podcast.

1944
01:02:30,320 --> 01:02:31,400
Deel deze podcast.

1945
01:02:31,400 --> 01:02:32,440
Luisteraars bedankt.

1946
01:02:32,440 --> 01:02:33,220
Ook namens Kim.

1947
01:02:33,220 --> 01:02:33,820
Zeker.

1948
01:02:33,820 --> 01:02:35,720
En AI Tuesday jongens.

1949
01:02:35,720 --> 01:02:36,480
Zet het in de agenda.

1950
01:02:36,480 --> 01:02:38,200
En tot ziens.

1951
01:02:38,200 --> 01:02:40,320
Dank jullie wel.

1952
01:02:40,320 --> 01:02:41,360
Kim en Martin.

1953
01:02:41,760 --> 01:02:44,340
Heerlijke aflevering zo.

1954
01:02:44,340 --> 01:02:44,880
Dankjewel.

1955
01:02:44,880 --> 01:02:45,700
Dank jullie wel.

1956
01:02:45,700 --> 01:02:46,520
Dank jullie wel.

1957
01:02:46,520 --> 01:03:16,500
[Muziek]


People on this episode