AIToday Live

S05E79 - Kunstmatige intelligentie in 2024: 12 voorspellingen!

December 25, 2023 Aigency by Info Support Season 5 Episode 81
S05E79 - Kunstmatige intelligentie in 2024: 12 voorspellingen!
AIToday Live
More Info
AIToday Live
S05E79 - Kunstmatige intelligentie in 2024: 12 voorspellingen!
Dec 25, 2023 Season 5 Episode 81
Aigency by Info Support

In deze aflevering van AIToday Live gaan Joop Snijder en Niels Naglé in gesprek over actuele ontwikkelingen in de wereld van kunstmatige intelligentie. Van de nieuwste generatieve AI-technologieën tot verwachtingen rondom de EU AI-act worden onderwerpen kritisch tegen het licht gehouden.

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Wil je toegang tot exclusieve toegang voor onze luisteraars? Schrijf je in voor de nieuwsbrief 'AI versterkt de Mens'

Contact AIToday Live


We zijn altijd op zoek naar nieuwe gasten die over AI willen spreken.

Show Notes Transcript

In deze aflevering van AIToday Live gaan Joop Snijder en Niels Naglé in gesprek over actuele ontwikkelingen in de wereld van kunstmatige intelligentie. Van de nieuwste generatieve AI-technologieën tot verwachtingen rondom de EU AI-act worden onderwerpen kritisch tegen het licht gehouden.

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Wil je toegang tot exclusieve toegang voor onze luisteraars? Schrijf je in voor de nieuwsbrief 'AI versterkt de Mens'

Contact AIToday Live


We zijn altijd op zoek naar nieuwe gasten die over AI willen spreken.

1
00:00:00,000 --> 00:00:07,000
Hoi, leuk dat je luistert naar een nieuwe aflevering van de AIToday Live.

2
00:00:07,000 --> 00:00:11,000
En wat is er nou zo leuk aan deze tijd van het jaar?

3
00:00:11,000 --> 00:00:14,000
We zitten nog net niet zeg maar onder een boom en dat soort dingen,

4
00:00:14,000 --> 00:00:17,000
maar dit is de tijd van vooruitkijken en dat gaan we doen.

5
00:00:17,000 --> 00:00:19,000
Mijn naam is Joop Snijder, CTO bij Aigency.

6
00:00:19,000 --> 00:00:23,000
Mijn naam Niels Naglé, chapter lead data AI bij Info Support.

7
00:00:23,000 --> 00:00:26,000
En Niels, het jaar zit er bijna op.

8
00:00:26,000 --> 00:00:32,000
Je bent wel een vlogel maar wel ontzettend veel opnames gemaakt,

9
00:00:32,000 --> 00:00:36,000
je hebt ontzettend veel leuke gasten, je hebt zelf heel veel geleerd.

10
00:00:36,000 --> 00:00:41,000
En ja, dat wordt een beetje een langzaam traditie, vooruitkijken.

11
00:00:41,000 --> 00:00:46,000
Dus wat gaat er gebeuren op het gebied van AI in 2024?

12
00:00:46,000 --> 00:00:53,000
Wat ik wel zo moet zeggen, als je kijkt, heel even terugkijken, niet te lang,

13
00:00:53,000 --> 00:00:59,000
want het is volgens mij namelijk een tijdperk aangebroken in 2023,

14
00:00:59,000 --> 00:01:04,000
wat wij eigenlijk zeggen is begonnen in 30 november 2022,

15
00:01:04,000 --> 00:01:06,000
bij het uitkomen van ChatGPT.

16
00:01:06,000 --> 00:01:09,000
Wat een bizar jaar is dit geworden.

17
00:01:09,000 --> 00:01:15,000
In het begin hadden we het stroomgeheel, nu hoor je iedereen erover.

18
00:01:15,000 --> 00:01:17,000
Het is overal.

19
00:01:17,000 --> 00:01:20,000
Je kan geen radio zenden, je kan geen tv-toegang meer kijken,

20
00:01:20,000 --> 00:01:22,000
of er wordt in orde geschoven.

21
00:01:22,000 --> 00:01:25,000
Dus dat betekent interessante tijden.

22
00:01:25,000 --> 00:01:29,000
En als er interessante tijden zijn, gebeurt er veel.

23
00:01:29,000 --> 00:01:33,000
En als er veel gebeurt, dan kunnen we ook een beetje vooruitkijken,

24
00:01:33,000 --> 00:01:37,000
blijven we diezelfde golf over ons heen krijgen,

25
00:01:37,000 --> 00:01:41,000
gaarder, net zo hard, net zo snel als afgelopen jaar.

26
00:01:41,000 --> 00:01:43,000
Wat denk jij?

27
00:01:43,000 --> 00:01:47,000
Ik denk dat de golf nog wel even doorziet.

28
00:01:47,000 --> 00:01:52,000
Ik denk dat we nog een heel eind over gaan hebben.

29
00:01:52,000 --> 00:01:56,000
In de hoeveelheid die we nu hebben, of misschien zelfs als het kan, nog wel wat meer.

30
00:01:56,000 --> 00:01:59,000
Ik ben bang ook in eerste instantie van wel,

31
00:01:59,000 --> 00:02:03,000
want wat we natuurlijk nog gaan krijgen is de custom GPT-store.

32
00:02:03,000 --> 00:02:07,000
Dat is niet eens een voorspelling, die gaat er gewoon komen 2024.

33
00:02:07,000 --> 00:02:13,000
Dat wordt ook een verdienmodel voor de OpenAI en voor de makers van de custom GPT-store.

34
00:02:13,000 --> 00:02:19,000
Dat gaat zich ermee tegen dat je die in de store kan plaatsen, net als een soort van gezamenlijke app.

35
00:02:19,000 --> 00:02:22,000
Daar kan je geld voor afvragen, voor de toegang.

36
00:02:22,000 --> 00:02:25,000
Dan zul je waarschijnlijk de afdracht moeten gaan doen om OpenAI,

37
00:02:25,000 --> 00:02:27,000
want zij hebben natuurlijk ook wat ze allemaal aan het doen zijn,

38
00:02:27,000 --> 00:02:29,000
om dat terug op te kopen.

39
00:02:29,000 --> 00:02:31,000
Daar gaan we nu mee.

40
00:02:31,000 --> 00:02:37,000
En dan gaan we ook een enorme golf krijgen van, in zin of onzin, wildgroei.

41
00:02:37,000 --> 00:02:42,000
Het is al gespoed moeten worden in de toekomst, maar er gaat eerst heel veel wild groen vlak zijn.

42
00:02:42,000 --> 00:02:49,000
Ik ben bang dat het wildgroei eruit gaat zien als de Google Play Store in het begin.

43
00:02:49,000 --> 00:02:54,000
Dat je echt heel goed moet gaan opletten waar je moet worden opgelicht.

44
00:02:54,000 --> 00:03:01,000
Ik denk dat er een aantal mensen miljonair gaan worden over de ruggen van...

45
00:03:01,000 --> 00:03:03,000
Hoe moet ik het zeggen?

46
00:03:03,000 --> 00:03:07,000
Als je even niet goed oplet, laat ik het zo zeggen.

47
00:03:07,000 --> 00:03:12,000
Als je even... - Je het gemak wil gebruiken en de goede punten ervan wil gebruiken.

48
00:03:12,000 --> 00:03:14,000
Efficiëntie of gemak.

49
00:03:14,000 --> 00:03:16,000
Maar net even niet opletten inderdaad.

50
00:03:16,000 --> 00:03:20,000
Dat is misschien ook gelijk de eerste voorspelling die je daar hebt gemaakt.

51
00:03:20,000 --> 00:03:24,000
Er gaan meerdere miljonairs uit voortkomen uit dit soort oplossingen.

52
00:03:24,000 --> 00:03:29,000
En waar de mensen winst maken, zijn er ook mensen die hun verlies pakken.

53
00:03:29,000 --> 00:03:34,000
Wat ik ook denk wat er gaat gebeuren,

54
00:03:34,000 --> 00:03:38,000
is dat we nu natuurlijk heel erg te maken hebben dat...

55
00:03:38,000 --> 00:03:43,000
de JGPT en de onderliggende modellen, de large language models,

56
00:03:43,000 --> 00:03:45,000
moeite hebben met feiten.

57
00:03:45,000 --> 00:03:48,000
En je kan nu al...

58
00:03:48,000 --> 00:03:54,000
Nou ja, als je vraagt om een samenvatting van een website,

59
00:03:54,000 --> 00:03:56,000
krijg je al iets als een bronvermelding.

60
00:03:56,000 --> 00:04:02,000
Dat die zegt van deze stukjes zinnen komen hier uit deze website.

61
00:04:02,000 --> 00:04:06,000
En daar gaan we denk ik in de aankomende jaar sprongen in maken.

62
00:04:06,000 --> 00:04:11,000
Want veel mensen die snappen natuurlijk dat die feitelijkheid mist.

63
00:04:11,000 --> 00:04:14,000
Dat heb je wel nodig om het goed te gebruiken.

64
00:04:14,000 --> 00:04:19,000
Dus ik denk dat daar veel onderzoek naar gaat gebeuren.

65
00:04:19,000 --> 00:04:22,000
Maar ook dat we dat ook direct terugzien in het product.

66
00:04:22,000 --> 00:04:25,000
Ja, ik denk dat we nu de eerste sprankeltjes ervan gaan zien.

67
00:04:25,000 --> 00:04:28,000
Maar echt gaan effectueren in 2024.

68
00:04:28,000 --> 00:04:33,000
En ik denk dat het ook nodig is om echt te gaan naar het stukje meer vertrouwen.

69
00:04:33,000 --> 00:04:37,000
Kunnen herhalen van wat heeft er plaatsgevonden.

70
00:04:37,000 --> 00:04:41,000
Dat je je factchecks kan gaan doen op basis van wat je is teruggegeven.

71
00:04:41,000 --> 00:04:42,000
Ja.

72
00:04:42,000 --> 00:04:45,000
En waar ik zelf een beetje...

73
00:04:45,000 --> 00:04:49,000
Ja, bang is het niet, want ik zit niet te rillen of zo.

74
00:04:49,000 --> 00:04:53,000
Maar wat ik denk dat er gebeurt, is dat de...

75
00:04:53,000 --> 00:04:58,000
vloedgolf van large language models, generatieve AI en dat soort dingen...

76
00:04:58,000 --> 00:05:01,000
ons een beetje verblinden, laat ik het zo zeggen.

77
00:05:01,000 --> 00:05:06,000
Dat het gaat verblinden rondom alle andere technologieën rondom AI.

78
00:05:06,000 --> 00:05:10,000
Dus eigenlijk de traditionele machine learning, dat dat vergeten wordt.

79
00:05:10,000 --> 00:05:16,000
Dat we nu een zo'n glimmend stukje gereedschap hebben.

80
00:05:16,000 --> 00:05:21,000
Dat we als kraaien zo blind zijn voor dat glimmende stukje.

81
00:05:21,000 --> 00:05:24,000
Dat we even vergeten dat er andere gereedschappen zijn...

82
00:05:24,000 --> 00:05:28,000
die in heel veel gevallen beter, makkelijker, simpeler...

83
00:05:28,000 --> 00:05:29,000
Transparanter.

84
00:05:29,000 --> 00:05:31,000
Transparanter, precies.

85
00:05:31,000 --> 00:05:35,000
Dat we even de use cases en de technologie...

86
00:05:35,000 --> 00:05:37,000
dat we die even uit beeld raken.

87
00:05:37,000 --> 00:05:40,000
Dat we vergeten dat er soms veel makkelijkere manieren zijn...

88
00:05:40,000 --> 00:05:44,000
om iets ook op te lossen dan met de GPT.

89
00:05:44,000 --> 00:05:48,000
Dus dan zullen we meer gehamerd zien met AI.

90
00:05:48,000 --> 00:05:50,000
Terwijl we beter even kunnen gaan schroeven...

91
00:05:50,000 --> 00:05:52,000
met machine learning of andere oplossingen.

92
00:05:52,000 --> 00:05:54,000
Ja, dus met large language models.

93
00:05:54,000 --> 00:05:57,000
Large language models ten opzichte van de machine learning.

94
00:05:57,000 --> 00:06:01,000
Ik ben bang dat we ons daar...

95
00:06:01,000 --> 00:06:05,000
Nou, we, maar iedereen die hiermee bezig is...

96
00:06:05,000 --> 00:06:07,000
dat daar ook blind gestaard wordt.

97
00:06:07,000 --> 00:06:09,000
Ja, maar dat is ook logisch, denk ik.

98
00:06:09,000 --> 00:06:11,000
Maar goed, we gaan wel terugkijken of dat ook logisch is.

99
00:06:11,000 --> 00:06:13,000
Dan gaan we onze voorspellingen kijken.

100
00:06:13,000 --> 00:06:15,000
Maar er gaan ook meer mensen gebruik van maken.

101
00:06:15,000 --> 00:06:19,000
Ja, en daardoor wordt die markt nog groter.

102
00:06:19,000 --> 00:06:22,000
En wat we gaan zien is dat er een race gaat komen...

103
00:06:22,000 --> 00:06:24,000
tussen de verschillende aanbieders.

104
00:06:24,000 --> 00:06:26,000
Dus we hebben natuurlijk heel veel over ChatGPT.

105
00:06:26,000 --> 00:06:29,000
Het is een beetje zoals in Amerika hebben ze het over...

106
00:06:29,000 --> 00:06:32,000
als je aan het fotokopiëren bent, hebben ze het over Xeroxing.

107
00:06:32,000 --> 00:06:36,000
Dus het merk is uiteindelijk de taak geworden.

108
00:06:36,000 --> 00:06:39,000
Dus het wordt wel, zeg maar...

109
00:06:39,000 --> 00:06:42,000
De vraag is of we gaan barden of gaan...

110
00:06:42,000 --> 00:06:43,000
ChatGPT'en.

111
00:06:43,000 --> 00:06:45,000
Of we gaan kloten.

112
00:06:45,000 --> 00:06:47,000
GELACH

113
00:06:47,000 --> 00:06:51,000
Ik voel al aangekomen dat we een andere naam nodig hebben.

114
00:06:51,000 --> 00:06:55,000
Maar wat we daar wel gaan zien is een race om...

115
00:06:55,000 --> 00:06:58,000
Nieuwe versies, verbeteringen, features.

116
00:06:58,000 --> 00:07:00,000
Ja, echt een red race.

117
00:07:00,000 --> 00:07:02,000
Daar geloof ik absoluut in.

118
00:07:02,000 --> 00:07:06,000
En in eerste instantie gaat dat zijn in grootte...

119
00:07:06,000 --> 00:07:08,000
van de context van de modellen.

120
00:07:08,000 --> 00:07:11,000
Dus hoeveel kan die onthouden van jouw prompt...

121
00:07:11,000 --> 00:07:13,000
en van jouw hele dialoog.

122
00:07:13,000 --> 00:07:15,000
Dat noemen ze dan de context.

123
00:07:15,000 --> 00:07:19,000
En Entropic was de eerste die hem bijvoorbeeld...

124
00:07:19,000 --> 00:07:23,000
naar 100.000 tokens optrok.

125
00:07:23,000 --> 00:07:26,000
Dus dat betekende dat je echt onwaarschijnlijk veel pagina's...

126
00:07:26,000 --> 00:07:29,000
kon geven en dat hij ook nog antwoord kon geven.

127
00:07:29,000 --> 00:07:32,000
Toen kwam ChatGPT er overheen.

128
00:07:32,000 --> 00:07:33,000
Die matchte dat.

129
00:07:33,000 --> 00:07:35,000
Entropic zit nu op 200.000.

130
00:07:35,000 --> 00:07:37,000
En ik denk dat we gaan naar...

131
00:07:37,000 --> 00:07:39,000
Pak een beet, 400.000.

132
00:07:39,000 --> 00:07:40,000
Meer.

133
00:07:40,000 --> 00:07:41,000
Dat soort zaken.

134
00:07:41,000 --> 00:07:43,000
Waarbij ik me afvraag of het niet de...

135
00:07:43,000 --> 00:07:47,000
pixels race is van de digitale camera's.

136
00:07:47,000 --> 00:07:50,000
Of meer uiteindelijk ook beter blijkt te zijn.

137
00:07:50,000 --> 00:07:53,000
En of we er ook daadwerkelijk wat aan hebben.

138
00:07:53,000 --> 00:07:55,000
Of dat het vooral fijn is dat je denkt...

139
00:07:55,000 --> 00:07:57,000
ja, we hebben meer.

140
00:07:57,000 --> 00:07:58,000
Meer is beter.

141
00:07:58,000 --> 00:08:01,000
Andere features.

142
00:08:01,000 --> 00:08:04,000
Wat we gaan krijgen is...

143
00:08:04,000 --> 00:08:08,000
dat er meerdere modellen aan elkaar geknoopt worden.

144
00:08:08,000 --> 00:08:12,000
Dus we zien nu al dat je images kan maken.

145
00:08:12,000 --> 00:08:13,000
In Chat-GPT.

146
00:08:13,000 --> 00:08:16,000
Dat je aan plaatjes dingen kan vragen.

147
00:08:16,000 --> 00:08:19,000
We gaan denk ik ook video's krijgen.

148
00:08:19,000 --> 00:08:20,000
Stability AI.

149
00:08:20,000 --> 00:08:22,000
Dat AI is daar al mee bezig.

150
00:08:22,000 --> 00:08:25,000
Om met prompt video's te maken.

151
00:08:25,000 --> 00:08:27,000
Misschien krijgen we zo direct ook...

152
00:08:27,000 --> 00:08:29,000
dat je muziek kan maken in Chat-GPT.

153
00:08:29,000 --> 00:08:31,000
Je kan al prompt omzetten naar muziek.

154
00:08:31,000 --> 00:08:33,000
Ik denk dat er meer bij elkaar gaat komen.

155
00:08:33,000 --> 00:08:36,000
Zoals dat je video's...

156
00:08:36,000 --> 00:08:39,000
Dat eigenlijk de contentvarianten...

157
00:08:39,000 --> 00:08:41,000
flexibeler mee om kunnen gaan...

158
00:08:41,000 --> 00:08:44,000
dan alleen maar met de chat en met tekstuele vorm.

159
00:08:44,000 --> 00:08:47,000
Dat volgend jaar veel meer stroom gaat krijgen.

160
00:08:47,000 --> 00:08:55,000
Waar ik dan vooral naar zit te kijken...

161
00:08:55,000 --> 00:08:58,000
is dat ik denk dat ze veel meer gaan kijken...

162
00:08:58,000 --> 00:09:00,000
ook naar stem.

163
00:09:00,000 --> 00:09:02,000
Dus het gebruik van stemmen.

164
00:09:02,000 --> 00:09:05,000
Dus onze stemmen, maar ook het praten ergens tegen.

165
00:09:05,000 --> 00:09:06,000
Antwoord krijgen.

166
00:09:06,000 --> 00:09:08,000
Makkelijke opdrachten kunnen geven.

167
00:09:08,000 --> 00:09:10,000
Daar uitvoering aan geven.

168
00:09:10,000 --> 00:09:13,000
Dus dat de interface weer gaat naar...

169
00:09:13,000 --> 00:09:16,000
wat de belofte was van Siri...

170
00:09:16,000 --> 00:09:18,000
of de belofte was van je Google Assistant.

171
00:09:18,000 --> 00:09:21,000
Dat die slimmer worden, beter worden.

172
00:09:21,000 --> 00:09:23,000
Ja, zou ik ook heel blij worden...

173
00:09:23,000 --> 00:09:25,000
als dat volgend jaar geplaatst vindt.

174
00:09:25,000 --> 00:09:27,000
Dat je iets minder ook in commando's...

175
00:09:27,000 --> 00:09:29,000
daartegen hoeft te praten.

176
00:09:29,000 --> 00:09:31,000
Dat ik in mijn Android-auto...

177
00:09:31,000 --> 00:09:33,000
mijn WhatsApp-berichtjes aan het versturen ben...

178
00:09:33,000 --> 00:09:35,000
en ik denk van nee, laat maar zitten.

179
00:09:35,000 --> 00:09:37,000
Ja, en de potentie is er...

180
00:09:37,000 --> 00:09:40,000
om dat in die zin gewoon heel veel beter te maken.

181
00:09:40,000 --> 00:09:42,000
Ja, dan pak ik gelijk even door...

182
00:09:42,000 --> 00:09:44,000
naar mijn voorspelling werken.

183
00:09:44,000 --> 00:09:46,000
Dat steeds meer van de copilots...

184
00:09:46,000 --> 00:09:49,000
en de ondersteuning in chat-based werken...

185
00:09:49,000 --> 00:09:51,000
naar augmented working gaan.

186
00:09:51,000 --> 00:09:54,000
Dus dat we eigenlijk verder ondersteund worden...

187
00:09:54,000 --> 00:09:56,000
in onze werkuitvoering.

188
00:09:56,000 --> 00:09:58,000
In plaats van dat we gaan vragen wat er moet gebeuren...

189
00:09:58,000 --> 00:10:00,000
maar dat er een soort van meegekeken wordt...

190
00:10:00,000 --> 00:10:03,000
voorstellen gedaan wordt zonder dat je het hoeft te vragen.

191
00:10:03,000 --> 00:10:05,000
Dus augmented colleagues.

192
00:10:05,000 --> 00:10:08,000
O, zo. Hoe noem je dat in het Nederlands? Toegevoegd.

193
00:10:08,000 --> 00:10:10,000
Ja, toegevoegde werkzaamheden inderdaad.

194
00:10:10,000 --> 00:10:12,000
Dat je daarin direct ondersteund wordt.

195
00:10:12,000 --> 00:10:15,000
Dat je een aanbeveling krijgt als je een mail aan het schrijven bent...

196
00:10:15,000 --> 00:10:18,000
van doe nog even dit, stuur dit mee...

197
00:10:18,000 --> 00:10:20,000
of zou je hier niet ook nog over schrijven.

198
00:10:20,000 --> 00:10:22,000
Ja, of je doelgroep is dit...

199
00:10:22,000 --> 00:10:25,000
maar als ik het zo zie zou je toch wel even hiernaar kunnen kijken.

200
00:10:25,000 --> 00:10:27,000
Dus dat je het niet meer hoeft te vragen...

201
00:10:27,000 --> 00:10:29,000
maar dat je eigenlijk ondersteund wordt.

202
00:10:29,000 --> 00:10:31,000
En daar kan je het mee eens of oneens zijn.

203
00:10:31,000 --> 00:10:33,000
Ondersteunend. - Ondersteunend zijn.

204
00:10:33,000 --> 00:10:37,000
Ja, augmented is ondersteunend. - Ja, ondersteunend van onze werkzaamheden.

205
00:10:37,000 --> 00:10:40,000
Dus in plaats van minder vragen, gewoon ondersteuning.

206
00:10:40,000 --> 00:10:42,000
Mooi.

207
00:10:42,000 --> 00:10:44,000
Wat we ook denk ik gaan krijgen is...

208
00:10:44,000 --> 00:10:48,000
want ik blijf toch nog eventjes in die generatieve AI...

209
00:10:48,000 --> 00:10:50,000
want dat spreekt denk ik de mensen het meest aan.

210
00:10:50,000 --> 00:10:52,000
Zo direct in 2024 ook.

211
00:10:52,000 --> 00:10:55,000
Dat we nog meer...

212
00:10:55,000 --> 00:11:00,000
nog meer druk krijgen op het hele verhaal...

213
00:11:00,000 --> 00:11:03,000
rondom Artificial General Intelligence.

214
00:11:03,000 --> 00:11:06,000
Dus nogmaals herhalen, dat is het moment...

215
00:11:06,000 --> 00:11:10,000
dat de machine ons als mens voorbijstreeft...

216
00:11:10,000 --> 00:11:12,000
en onze taken kan uitvoeren.

217
00:11:12,000 --> 00:11:15,000
Daar wil ik eigenlijk in die zin twee dingen over zeggen.

218
00:11:15,000 --> 00:11:18,000
Eén, wat me opvalt is dat OpenAI heeft...

219
00:11:18,000 --> 00:11:21,000
zeg maar zijn definitie van Artificial General Intelligence...

220
00:11:21,000 --> 00:11:23,000
al zo ver naar beneden geschroefd...

221
00:11:23,000 --> 00:11:25,000
dat het zo direct ook makkelijker is om te zeggen van...

222
00:11:25,000 --> 00:11:26,000
ja, dat hebben we.

223
00:11:26,000 --> 00:11:30,000
Als je zegt van, mijn zelfrijdende auto is zelfrijdend...

224
00:11:30,000 --> 00:11:32,000
als ik het stuur bedien of zo.

225
00:11:32,000 --> 00:11:36,000
Daar zitten ze een beetje op.

226
00:11:36,000 --> 00:11:39,000
Maar als we kijken naar echt Artificial General Intelligence...

227
00:11:39,000 --> 00:11:43,000
gaan we denk ik heel veel meer claims vooral krijgen.

228
00:11:43,000 --> 00:11:45,000
Dat we daar zijn, dat we daar bijna zijn.

229
00:11:45,000 --> 00:11:49,000
En allemaal dat soort, ik noem het toch echt wel grote onzin.

230
00:11:52,000 --> 00:11:57,000
Dat alles is nu nog gebaseerd op wiskundige formules...

231
00:11:57,000 --> 00:12:00,000
en die wiskundige gaat niet zelf denken.

232
00:12:00,000 --> 00:12:05,000
Ik hoop dat je ermee oneens bent, laat het ons weten.

233
00:12:05,000 --> 00:12:10,000
Maar ik durf met zeer hoge stelligheid te zeggen...

234
00:12:10,000 --> 00:12:13,000
in 2024 mensen, echt niet.

235
00:12:13,000 --> 00:12:15,000
No way, goussé.

236
00:12:15,000 --> 00:12:21,000
Maar je voorspelling is dus dat het wel geclaimed gaat worden.

237
00:12:21,000 --> 00:12:24,000
Die claims gaan ons om de oren worden geslagen...

238
00:12:24,000 --> 00:12:26,000
waar je niet goed van wordt.

239
00:12:26,000 --> 00:12:28,000
Dat is goed om te weten, want we gaan natuurlijk weer terugluisteren.

240
00:12:28,000 --> 00:12:29,000
Ja, aan onszelf.

241
00:12:29,000 --> 00:12:32,000
Dan kunnen we ook weer even zeggen wat we zelf over gezegd hebben.

242
00:12:32,000 --> 00:12:33,000
Heel goed.

243
00:12:33,000 --> 00:12:35,000
Ja, had jij nog...

244
00:12:35,000 --> 00:12:40,000
Ik denk dat we het ook verder gaan zien dan chat.

245
00:12:40,000 --> 00:12:42,000
Ik zei het net al even, een soort van ondersteunend werker.

246
00:12:42,000 --> 00:12:47,000
Maar ik denk dat we het ook steeds meer gaan zien met video en voice.

247
00:12:47,000 --> 00:12:51,000
Dus dat we het misschien wel op tv gaan zien in 2024.

248
00:12:51,000 --> 00:12:53,000
Net zoals in het buitenland ook al gebeurt.

249
00:12:53,000 --> 00:12:55,000
Dus nieuws dat wordt voorgelezen.

250
00:12:55,000 --> 00:12:57,000
Ik denk dat volgend jaar het jaar gaat zijn...

251
00:12:57,000 --> 00:13:00,000
dat de eerste paar programma's daadwerkelijk live gaan...

252
00:13:00,000 --> 00:13:05,000
met behulp van video, voice en ondersteuning vanuit AI.

253
00:13:05,000 --> 00:13:06,000
Ja.

254
00:13:06,000 --> 00:13:08,000
En duurzaamheid.

255
00:13:08,000 --> 00:13:12,000
Vorig jaar hebben we gezegd, duurzaamheid wordt het thema.

256
00:13:12,000 --> 00:13:14,000
Ja, we hebben het ook wel eens fout.

257
00:13:14,000 --> 00:13:18,000
Het is wel een thema, maar het is niet een heel groot thema geweest volgens mij.

258
00:13:18,000 --> 00:13:20,000
Gaat het aankomend jaar een thema worden?

259
00:13:20,000 --> 00:13:23,000
Gaat het gespreksonderwerp worden? Ja.

260
00:13:23,000 --> 00:13:24,000
Hoe groot?

261
00:13:24,000 --> 00:13:26,000
Er liggen twijfels.

262
00:13:26,000 --> 00:13:30,000
Ik denk dat er wel meer over gesproken gaat worden dan afgelopen jaar.

263
00:13:30,000 --> 00:13:33,000
Met name met de groei en toename van gebruik.

264
00:13:33,000 --> 00:13:36,000
Daar moeten we het wat mij betreft wel over gaan hebben.

265
00:13:36,000 --> 00:13:39,000
Maar of dat ook echt gaat gebeuren, daar heb ik echt wel harde hoofd in.

266
00:13:39,000 --> 00:13:44,000
Wat ik zie als ik kom waar praatjes gehouden worden,

267
00:13:44,000 --> 00:13:46,000
of op conferenties, seminars en zo,

268
00:13:46,000 --> 00:13:51,000
wordt er vooral gesproken over hoe AI kan bijdragen aan duurzaamheid.

269
00:13:51,000 --> 00:13:54,000
En wordt er ergens wel vermeld,

270
00:13:54,000 --> 00:13:58,000
dat kost eigenlijk best wel heel veel resources,

271
00:13:58,000 --> 00:14:02,000
wat we allemaal aan het verbranden zijn met alle prompts en alle dingen die we maken.

272
00:14:02,000 --> 00:14:07,000
Maar ik denk dat 2024, juist omdat we die golf over ons heen krijgen,

273
00:14:07,000 --> 00:14:10,000
dat we allemaal denken van ja, ik gebruik het, ik wil het.

274
00:14:10,000 --> 00:14:11,000
Zoveel waarde.

275
00:14:11,000 --> 00:14:13,000
Ik wil het, ik wil het, ik wil het.

276
00:14:13,000 --> 00:14:18,000
Dat er misschien, weet je, ergens is er een stemmetje in je achterhoofd

277
00:14:18,000 --> 00:14:21,000
die zegt van ja, ik weet dat het dat is,

278
00:14:21,000 --> 00:14:24,000
maar ik denk niet dat het een onderwerp gaat worden.

279
00:14:24,000 --> 00:14:28,000
Ik denk dat het daar nog te vroeg gaat zijn en dat we het eerst verder gaan gebruiken.

280
00:14:28,000 --> 00:14:31,000
Net zoals het licht aanzetten thuis op afstand,

281
00:14:31,000 --> 00:14:34,000
dat kost ook best wel wat energie en kwaliteit.

282
00:14:34,000 --> 00:14:35,000
Het is nu gemak.

283
00:14:35,000 --> 00:14:39,000
En ik denk dat op de duur, maar niet volgend jaar, daar wel meer naar gekeken gaat worden.

284
00:14:39,000 --> 00:14:44,000
Zeker. Maar nu is het nog vooral, zeg maar, worden alle positieve kanten uitgelicht

285
00:14:44,000 --> 00:14:48,000
van hij gaat bijdragen aan duurzaamheid, maar voorlopig zitten we nog zeg maar in de min.

286
00:14:48,000 --> 00:14:49,000
Ja. Ja.

287
00:14:49,000 --> 00:14:52,000
We zitten aan de negatieve bijdrage.

288
00:14:52,000 --> 00:14:56,000
Die zal nog toenemen, die negatieve impact.

289
00:14:56,000 --> 00:14:58,000
Dat geloof ik ook. Zekers.

290
00:14:58,000 --> 00:15:02,000
Wat rondom privacy dan?

291
00:15:04,000 --> 00:15:09,000
Ja, ik denk dat dat, privacy is natuurlijk, wat staan we er allemaal onder?

292
00:15:09,000 --> 00:15:16,000
Ik denk dat het volgend jaar wel echt een onderwerp gaat worden.

293
00:15:16,000 --> 00:15:20,000
Net als, een Nederlands woord, legislation. Wetgeving.

294
00:15:20,000 --> 00:15:21,000
Wetgeving, ja.

295
00:15:21,000 --> 00:15:23,000
Heel gek, ik kwam er niet op.

296
00:15:23,000 --> 00:15:28,000
Ik denk dat het volgend jaar wel echt, met de wetgeving die ook nu uitgesteld is,

297
00:15:28,000 --> 00:15:32,000
waar we in gesprekken over hebben, ik denk dat volgend jaar ook wel de klap gaat vallen

298
00:15:32,000 --> 00:15:36,000
dat die rondkomt en dat privacy daar wel een heel belangrijk onderwerp zit.

299
00:15:36,000 --> 00:15:39,000
Ja, dan bedoel je de EU, de AI-act, die eraan komt.

300
00:15:39,000 --> 00:15:40,000
Ja.

301
00:15:40,000 --> 00:15:43,000
Je ziet natuurlijk nu dat er al best wel heel veel vragen worden gesteld

302
00:15:43,000 --> 00:15:47,000
rondom het gebruik van jouw data met JPT.

303
00:15:47,000 --> 00:15:51,000
Wordt die nou wel meegenomen om te trainen, niet meegenomen?

304
00:15:51,000 --> 00:15:56,000
De policies worden aangescherpt of duidelijker gemaakt van,

305
00:15:56,000 --> 00:15:58,000
ja, je data wordt inderdaad meegenomen.

306
00:15:58,000 --> 00:16:01,000
Dus ik geloof dat daar inderdaad veel meer aandacht voor komt.

307
00:16:01,000 --> 00:16:03,000
Ja, dat geloof ik ook.

308
00:16:03,000 --> 00:16:09,000
Zeker met de JPT's, die je ook zelf kan gebouwen, kan bijtrainen en dat soort zaken.

309
00:16:09,000 --> 00:16:10,000
Er worden ook andere data weer naartoe gevoegd.

310
00:16:10,000 --> 00:16:12,000
Ik denk dat dat echt wel een thema gaat worden,

311
00:16:12,000 --> 00:16:16,000
waardoor schade en schande wijzer gaan worden.

312
00:16:16,000 --> 00:16:21,000
Ja, en ik denk dat we het aankomende jaar best wel regelmatig zullen gaan hebben,

313
00:16:21,000 --> 00:16:26,000
misschien zelfs hier in de podcast, maar zeg maar in het algemeen over die EU-AI-act.

314
00:16:26,000 --> 00:16:28,000
Want die gaat je uiteindelijk raken.

315
00:16:28,000 --> 00:16:32,000
En zeker als je als organisatie bezig bent met het ontwikkelen van AI-systemen,

316
00:16:32,000 --> 00:16:34,000
moet je natuurlijk naar voren kijken.

317
00:16:34,000 --> 00:16:38,000
Dus ik neem aan dat als je nu bezig gaat met het maken van een systeem,

318
00:16:38,000 --> 00:16:42,000
dat je die over vijf jaar nog steeds wilt gebruiken.

319
00:16:42,000 --> 00:16:47,000
En misschien gaat het allemaal niet zo hard als dat we gehoopt hadden,

320
00:16:47,000 --> 00:16:49,000
maar over vijf jaar is die er.

321
00:16:49,000 --> 00:16:51,000
Dat durf ik wel te zeggen.

322
00:16:51,000 --> 00:16:56,000
En dan wil je er nu alvast over nadenken waar je dan aan moet voldoen,

323
00:16:56,000 --> 00:16:59,000
welke transparantie-eisen er zijn, welke privacy-regels er zijn,

324
00:16:59,000 --> 00:17:02,000
welke uitlegbaarheidseisen er zijn.

325
00:17:02,000 --> 00:17:06,000
Dus het is wel heel goed om je daar nu alvast in te verdiepen,

326
00:17:06,000 --> 00:17:12,000
om het behoud eigenlijk uiteindelijk van je investering.

327
00:17:12,000 --> 00:17:20,000
Dus dat is, ik denk dat dat in ieder geval een thema wordt,

328
00:17:20,000 --> 00:17:22,000
misschien niet, zeker niet maatschappelijk nog,

329
00:17:22,000 --> 00:17:24,000
maar wel binnen organisaties.

330
00:17:24,000 --> 00:17:30,000
Dus hoe zorgen we nou dat je robuust, langdurig gebruik kan blijven maken

331
00:17:30,000 --> 00:17:31,000
van die machine learning?

332
00:17:31,000 --> 00:17:36,000
Veel bedrijven hebben wat experimenten uitgevoerd,

333
00:17:36,000 --> 00:17:37,000
hebben dingen in productie,

334
00:17:37,000 --> 00:17:41,000
maar je gaat zien dat dat onderhoud nodig heeft,

335
00:17:41,000 --> 00:17:43,000
dat dat ook een likje verf nodig heeft,

336
00:17:43,000 --> 00:17:48,000
dat dat zo direct aan regulering onderhevig is.

337
00:17:48,000 --> 00:17:50,000
En als het niet aan regulering onderhevig wordt,

338
00:17:50,000 --> 00:17:54,000
dan zijn het wel de ethische vraagstukken waar meer vraag naar is.

339
00:17:54,000 --> 00:17:56,000
Gebruikersvragen die erbij komen.

340
00:17:56,000 --> 00:17:58,000
Het gaat hoe dan ook veranderen.

341
00:17:58,000 --> 00:18:00,000
We moeten bouwen op die verandering.

342
00:18:00,000 --> 00:18:01,000
Die verandering komt sowieso.

343
00:18:01,000 --> 00:18:05,000
Welke vorm, wetgeving of gebruikservaringen,

344
00:18:05,000 --> 00:18:08,000
of als organisatie er anders mee om willen gaan.

345
00:18:08,000 --> 00:18:10,000
Dus ik denk dat het wel het jaar wordt van,

346
00:18:10,000 --> 00:18:12,000
hoe gaan we robuuste oplossingen,

347
00:18:12,000 --> 00:18:14,000
die flexibel genoeg zijn voor de toekomst,

348
00:18:14,000 --> 00:18:17,000
echt gaan vormgeven en ontwikkelen.

349
00:18:17,000 --> 00:18:22,000
Ja, wat ik hoop, maar ik denk niet dat dat gaat gebeuren,

350
00:18:22,000 --> 00:18:26,000
is dat er veel meer taakintegratie gaat komen,

351
00:18:26,000 --> 00:18:30,000
tussen de, laten we zeggen, AI agents.

352
00:18:30,000 --> 00:18:33,000
Ik denk dat dat het allermoeilijkste deel is.

353
00:18:33,000 --> 00:18:35,000
Hoe praten systemen met elkaar?

354
00:18:35,000 --> 00:18:38,000
Op dit moment in de marketingwereld,

355
00:18:38,000 --> 00:18:40,000
en misschien daarbuiten ook wel,

356
00:18:40,000 --> 00:18:42,000
wordt heel veel Zapier gebruikt,

357
00:18:42,000 --> 00:18:45,000
waarbij, die hebben, weet ik veel,

358
00:18:45,000 --> 00:18:49,000
een paar duizend van die services, van die SaaS-services,

359
00:18:49,000 --> 00:18:50,000
kan je dan aan elkaar knopen.

360
00:18:50,000 --> 00:18:54,000
Als ik dit op LinkedIn, als er een berichtje op LinkedIn verschijnt,

361
00:18:54,000 --> 00:18:55,000
kan ik het in de Google Docs stoppen.

362
00:18:55,000 --> 00:18:58,000
En als het daar in de Google Docs staat, weet ik het,

363
00:18:58,000 --> 00:19:01,000
kan ik mezelf een mailtje sturen.

364
00:19:01,000 --> 00:19:05,000
Zo kan je allerlei van dit soort services, zeg maar, aan elkaar knopen.

365
00:19:05,000 --> 00:19:09,000
En dat kun je nu ook al automatiseren,

366
00:19:09,000 --> 00:19:11,000
voor een deel met ChatGPT.

367
00:19:11,000 --> 00:19:15,000
Er is een plugin voor, daar heb ik ook eventjes naar gekeken.

368
00:19:15,000 --> 00:19:19,000
Maar wat je daar vooral ziet, is dat je nog best wel heel technisch

369
00:19:19,000 --> 00:19:22,000
allerlei linkjes moet kopiëren, precies op de juiste plek.

370
00:19:22,000 --> 00:19:27,000
De juiste naamgeving moet dan aan de ene kant ook aan de andere kant zijn.

371
00:19:27,000 --> 00:19:29,000
En je kan je voorstellen, zeg maar,

372
00:19:29,000 --> 00:19:32,000
nou, als we het hebben over houtje touwtjes,

373
00:19:32,000 --> 00:19:35,000
dan is dit zeg maar de houtje touwtje oplossing.

374
00:19:35,000 --> 00:19:37,000
De touwtjes zullen heel snel breken.

375
00:19:37,000 --> 00:19:42,000
En jij past ergens in Zapier een woordje aan en hij doet het niet meer.

376
00:19:42,000 --> 00:19:46,000
En als jij heel veel van dat soort geautomatiseerde workflows hebt,

377
00:19:46,000 --> 00:19:48,000
want dan gaat het over geautomatiseerde workflows,

378
00:19:48,000 --> 00:19:51,000
en hij voert niet meer uit wat je dacht dat hij moest doen,

379
00:19:51,000 --> 00:19:54,000
heb je geen idee meer. - Waar gaat het stuk?

380
00:19:54,000 --> 00:19:57,000
Waar gaat het stuk? Dat is altijd de allergrootste vraag in automatiseringsland.

381
00:19:57,000 --> 00:20:01,000
Waar gaat iets stuk? - Welk bitje is omgevallen?

382
00:20:01,000 --> 00:20:03,000
Ja, toch? - Ja.

383
00:20:03,000 --> 00:20:10,000
Transparante AI is ook wel eentje waar jij druk mee bent.

384
00:20:10,000 --> 00:20:15,000
Als je kijkt naar dat onderwerp, wat gaat daar op 2024 veranderen?

385
00:20:15,000 --> 00:20:21,000
Veranderen? Ik ben bang dat er niet zo heel veel significant gaat veranderen.

386
00:20:21,000 --> 00:20:29,000
Ik kon zelf dit jaar niet mee naar de eerste explainable AI conferentie die gehouden is.

387
00:20:29,000 --> 00:20:34,000
Die is vanuit de wetenschappelijke wereld, vanuit de academie, georganiseerd.

388
00:20:34,000 --> 00:20:40,000
Maar een van mijn masterstudenten en een collega is mee geweest.

389
00:20:40,000 --> 00:20:46,000
Wat je daar vooral zag, is dat er heel veel aandacht was alleen op de techniek,

390
00:20:46,000 --> 00:20:49,000
die dan explainable AI heet.

391
00:20:49,000 --> 00:20:52,000
Dat betekent eigenlijk dat je eerst een blackbox traint,

392
00:20:52,000 --> 00:20:58,000
en dan een schilletje daar omheen maakt om ongeveer te kijken in die zwarte doos.

393
00:20:58,000 --> 00:21:01,000
Dus je begint eigenlijk, in mijn beleving, aan de verkeerde kant.

394
00:21:01,000 --> 00:21:06,000
Je zegt eerst van, ja, iets kan niet, en we proberen dat dan een beetje te verklaren.

395
00:21:06,000 --> 00:21:13,000
En er waren eigenlijk maar twee onderzoekers, waarvan dus één mijn studenten,

396
00:21:13,000 --> 00:21:16,000
en één andere, was ook trouwens een Nederlandse,

397
00:21:16,000 --> 00:21:20,000
die zich bezighielden met interpreteerbare AI.

398
00:21:20,000 --> 00:21:25,000
Dus waarbij je uitgaat van een model waar je daadwerkelijk in kan kijken.

399
00:21:25,000 --> 00:21:28,000
Waar je gewoon kan zien, zo redeneert hij.

400
00:21:28,000 --> 00:21:32,000
Hier zitten de fouten, hier zit een mogelijke bias.

401
00:21:32,000 --> 00:21:40,000
En omdat er heel snel gekozen wordt, omdat we heel snel moeten ontwikkelen,

402
00:21:40,000 --> 00:21:43,000
is natuurlijk de weg van de minste weerstand is snel bewandeld.

403
00:21:43,000 --> 00:21:49,000
En dan is in zekere zin die deep learning, de blackboxes die dat oplevert,

404
00:21:49,000 --> 00:21:56,000
is de snelste route naar een doel op de korte termijn.

405
00:21:56,000 --> 00:22:02,000
En dus je hebt even een omweggetje nodig om hem interpreteerbaar te maken, beter.

406
00:22:02,000 --> 00:22:08,000
Maar op lange termijn, dit is eigenlijk het verhaal van de haas en de schildpad.

407
00:22:08,000 --> 00:22:13,000
Dus je denkt dat je supersnel bent, maar je bent de schildpad op de weg gezet.

408
00:22:13,000 --> 00:22:17,000
Nee, het was andersom toch? De schildpad was op een gegeven moment slimmer.

409
00:22:17,000 --> 00:22:23,000
Dus in het begin denk je dat je een haas hebt en die gaat heel snel.

410
00:22:23,000 --> 00:22:27,000
Maar die is ook heel snel, is die uitgerend, is die moe, is die klaar.

411
00:22:27,000 --> 00:22:32,000
En de andere kant van de interpreteerbare is de schildpad.

412
00:22:32,000 --> 00:22:37,000
Dus in het begin lijkt het alsof je wat langzamer gaat.

413
00:22:37,000 --> 00:22:40,000
En uiteindelijk is die steady, gaat die door.

414
00:22:40,000 --> 00:22:43,000
En heb je daar uiteindelijk zo ontzettend veel meer aan.

415
00:22:43,000 --> 00:22:49,000
Daar gaat in 2024 helaas niets aan veranderen.

416
00:22:49,000 --> 00:22:52,000
Maar als het aan mij ligt, wel.

417
00:22:52,000 --> 00:22:54,000
Ik hoop dus dat je fout zit, Joop.

418
00:22:54,000 --> 00:22:57,000
Ja, dat lijkt me een hele mooie afsluiting.

419
00:22:57,000 --> 00:22:59,000
Ik hoop ook dat ik heel erg fout zit.

420
00:22:59,000 --> 00:23:06,000
Dankjewel voor het luisteren naar de mooie verspreidingen van 2024.

421
00:23:06,000 --> 00:23:08,000
Tot…

422
00:23:08,000 --> 00:23:10,000
Nee, dit is niet de allerlaatste aflevering van het jaar.

423
00:23:10,000 --> 00:23:15,000
We weten nooit helemaal exact wanneer de uitzenddata is.

424
00:23:15,000 --> 00:23:20,000
Maar we hopen je in ieder geval in 2024 sowieso weer heel vaak te horen.

425
00:23:20,000 --> 00:23:23,000
Dankjewel voor al het luisteren.

426
00:23:23,000 --> 00:23:26,000
En nou ja, tot volgende keer.

427
00:23:26,000 --> 00:23:27,080
VROLIJKE MUZIEK.

428
00:23:27,080 --> 00:23:30,080
ja