AIToday Live

S08E10 - AI-voorspellingen 2026

Aigency by Info Support Season 8 Episode 10

In de nieuwste aflevering van AIToday Live staan voorspellingen voor 2026 centraal. De hosts verwachten een verdere opkomst van agentic AI, maar waarschuwen ook voor overspannen verwachtingen en verwarring rond de term 'agent'.

Voor 2026 wordt "AI-obesitas" voorzien - een overconsumptie van AI-diensten die productiviteit kan verminderen. Daarnaast zal 2026 het jaar worden waarin bedrijven de overstap maken van AI-pilots naar volwaardige productie-implementaties.

De impact van AI op werkgelegenheid blijft een belangrijk thema, waarbij nieuwe rollen zoals AI-manager en agent-orchestrator zullen ontstaan. Tegelijkertijd zal er meer aandacht komen voor datasoevereiniteit en ethische vraagstukken rond AI-toepassingen.

Onderwerpen

  • Agentic AI: autonomie en verwarring
  • AI-obesitas: overconsumptie van AI-diensten
  • Overgang van AI-pilots naar productie-implementaties
  • Impact van AI op werkgelegenheid en nieuwe functies
  • Soevereiniteit en ethiek in AI-toepassingen
Links

Genoemde entiteiten: ABN AMRO - Matthijs Bouwman - Financieel Dagblad

Stuur ons een bericht

Stem op AIToday Live voor de Nationale AI Awards 2025 – dat kan tot 12 januari via aimaze.nl/ai-awards-voting-2025

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:02,960 --> 00:00:12,640
Joop: Leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live en vandaag wel een hele leuke, want we gaan het hebben over voorspellingen voor volgend jaar 2026.

2
00:00:12,640 --> 00:00:14,720
Joop: Mijn naam, Joop Snijder, CTO bij Aigency.

3
00:00:14,719 --> 00:00:17,679
Niels: Mijn naam, Niels Naglé, Area Lead Data & AI bij Info Support.

4
00:00:17,679 --> 00:00:26,880
Joop: Ja, Niels, en zoals gezegd, we gaan een beetje vooruitkijken, zeggen natuurlijk altijd erbij is heel erg lastig om in een glaasbol te kijken.

5
00:00:26,880 --> 00:00:34,559
Joop: Maar ik denk dat we best wel met sommigen met best wel veel zekerheid kunnen zeggen wat er gaat gebeuren in 2026.

6
00:00:34,719 --> 00:00:37,359
Joop: Sommigen misschien met iets minder zekerheid.

7
00:00:37,359 --> 00:00:38,079
Niels: Zeker weten.

8
00:00:38,079 --> 00:00:40,479
Niels: En ik denk dat het gewoon goed is om altijd even vooruit te kijken.

9
00:00:40,480 --> 00:00:44,719
Niels: En dan hou je in ieder geval rekening mee met de gedachte dat het zou kunnen gaan gebeuren.

10
00:00:44,720 --> 00:00:45,519
Joop: Precies.

11
00:00:46,640 --> 00:00:47,679
Joop: Waar beginnen we?

12
00:00:47,679 --> 00:00:48,319
Joop: Zal ik beginnen?

13
00:00:49,200 --> 00:01:01,840
Joop: Kijk, de eerste waar ik het over wil hebben, is dat we gaan zien, en dat is al in opkomst, 2025, is agents en agentic AI.

14
00:01:02,320 --> 00:01:07,359
Joop: Ik denk dat het de hype nog niet over is dat hij alleen maar groter gaat worden.

15
00:01:08,000 --> 00:01:13,840
Joop: Dat we nog meer spraakverwarring gaan krijgen over wat is dan agentic AI.

16
00:01:14,960 --> 00:01:18,560
Joop: Maar dat we daar ook wel een beetje teleurstelling in gaan krijgen.

17
00:01:18,560 --> 00:01:22,320
Joop: Dus mensen denken van agents gaan echt alles overnemen.

18
00:01:22,319 --> 00:01:25,919
Joop: En we kunnen alles gaan oplossen met agentic AI.

19
00:01:25,920 --> 00:01:29,359
Joop: En dat gaat het uiteraard gaat het niet worden.

20
00:01:30,559 --> 00:01:31,999
Joop: Maar deze termen.

21
00:01:32,400 --> 00:01:36,319
Joop: Da ga je nog meer mee doodgegooid worden, moet ik zeggen.

22
00:01:36,319 --> 00:01:40,879
Joop: Maar het biedt ook mogelijkheden om echt al na te denken over verandering van werk.

23
00:01:41,120 --> 00:01:45,359
Joop: En wat ik denk.

24
00:01:46,000 --> 00:01:51,759
Joop: In 2026, is dat we het minder gaan zien, hopelijk als technologie.

25
00:01:51,760 --> 00:01:56,399
Joop: Maar meer kijken van wat verandert het dan binnen je organisatie.

26
00:01:56,400 --> 00:01:58,399
Joop: Of moet veranderen.

27
00:01:58,400 --> 00:02:01,359
Joop: Om deze technologie ook te laten renderen.

28
00:02:02,560 --> 00:02:05,280
Niels: Je gaat heel snel een paar stapjes terug, inderdaad.

29
00:02:05,280 --> 00:02:07,199
Niels: Je zegt het is nu al beginnend.

30
00:02:07,200 --> 00:02:12,479
Niels: Heb je al voorbeelden van variaties van agents terminologie.

31
00:02:13,280 --> 00:02:21,360
Joop: Ja, kijk, in mijn beleving gaat gaat het om een mate van autonomie.

32
00:02:21,599 --> 00:02:22,800
Joop: Wat agents hebben.

33
00:02:23,280 --> 00:02:27,039
Joop: Een agent moet zijn omgeving waar kunnen nemen.

34
00:02:27,520 --> 00:02:30,639
Joop: Moet handelingen kunnen uitvoeren.

35
00:02:31,039 --> 00:02:34,000
Joop: Da zit een vorm van autonomie in.

36
00:02:34,000 --> 00:02:39,520
Joop: En kunnen leren en feedback vanuit feedback leren.

37
00:02:40,159 --> 00:02:41,680
Joop: En dat klinkt vaak heel zwaar.

38
00:02:42,319 --> 00:02:43,920
Joop: Dat kan eenvoudige feedback zijn.

39
00:02:43,919 --> 00:02:47,360
Joop: En dat kunnen eenvoudige leercyclus zijn.

40
00:02:48,000 --> 00:02:54,400
Joop: En wat je ziet, is in ieder geval in de moderne AI agents zit het brein het taalmodel.

41
00:02:55,840 --> 00:03:06,880
Joop: De verschillen die er zijn, is dat je ook ziet, zeg maar wat er nu ontstaat, is als je een prompt stuurt aan een taalmodel en je krijgt antwoord terug, dat mensen dat al een agent noemen.

42
00:03:06,879 --> 00:03:11,359
Joop: Ik noem dat een prompt sturen naar een taalmodel een antwoord terugkrijgen.

43
00:03:13,039 --> 00:03:14,479
Joop: Ik snap het wel.

44
00:03:14,560 --> 00:03:21,439
Joop: Want ik heb gisteren ook nog een workshop gegeven, waarin deze discussie gevoerd werd.

45
00:03:21,759 --> 00:03:31,359
Joop: En dat komt omdat de Anthropics, de Claudes en de ChatGPT's van deze wereld ook als een agent kunnen opereren.

46
00:03:31,359 --> 00:03:33,760
Joop: Dus je kan een vraag stellen, ik kan antwoord krijgen.

47
00:03:33,760 --> 00:03:35,840
Joop: Het is niks met agent te maken.

48
00:03:35,840 --> 00:03:38,560
Joop: Je kan hem in een agent modus zetten.

49
00:03:38,560 --> 00:03:41,039
Joop: Dan geef je hem vaak een opdracht.

50
00:03:41,039 --> 00:03:51,039
Joop: Dus dan moet hij een doel gaan uitzoeken, kan hij daar ook tools voor gebruiken, zoals web search of iets op je machine opzoeken, connecties die je met je applicaties hebt.

51
00:03:51,039 --> 00:03:53,839
Joop: Dan hebben we het wel over een agent.

52
00:03:53,840 --> 00:03:57,680
Joop: En dan heb je ook nog de zogenaamde workflow agents.

53
00:03:57,680 --> 00:04:03,359
Joop: Waarbij het eigenlijk is veel meer een stappenplan uitgestippeld.

54
00:04:03,359 --> 00:04:05,439
Joop: Die wij hebben uitgestippeld.

55
00:04:05,919 --> 00:04:16,079
Joop: En dat er niet van dat stappenplan wordt afgekeken, maar dat de taalmodel erin verweven zit om eventueel één of meer van die stappen slimmer uit te voeren.

56
00:04:17,199 --> 00:04:21,920
Joop: Dat maakt het soms lastig om te bedenken van ja, wat is nou wel een agent, wat is niet een agent.

57
00:04:21,920 --> 00:04:23,360
Joop: En de vierde.

58
00:04:23,600 --> 00:04:28,000
Joop: Die gaan we denk ik namelijk heel veel zien, namelijk het aankomend jaar.

59
00:04:28,000 --> 00:04:29,520
Joop: Veel meer dan je lief is.

60
00:04:29,520 --> 00:04:32,800
Joop: En dat is de agent washing.

61
00:04:32,800 --> 00:04:36,399
Joop: Oftewel, overal waar we maar het stikker op kunnen plakken.

62
00:04:36,639 --> 00:04:39,600
Joop: Dit is een agent, dat is een agent, iedereen een agent.

63
00:04:40,799 --> 00:04:42,560
Joop: Dat heeft er niets mee te maken.

64
00:04:43,360 --> 00:04:48,239
Joop: En ik wilde wel aan toevoegen, want soms is het een beetje flauw om het over definities te hebben.

65
00:04:48,480 --> 00:04:50,720
Joop: Maar in dit geval is het wel belangrijk.

66
00:04:50,719 --> 00:04:56,240
Joop: Omdat bij agents gaat het over autonomie en hoeveel autonomie geef je het.

67
00:04:56,240 --> 00:05:01,800
Joop: En daar zitten andere vraagstukken bij, dan als je gewoon een prompt opstuurt naar een taalmodel.

68
00:05:02,199 --> 00:05:09,319
Joop: En daarom is het belangrijk dat we juiste terminologie gebruiken voor dit onderwerp.

69
00:05:09,639 --> 00:05:14,439
Niels: En dat zal dus alleen maar gaan toenemen, is jouw verwachting in 2026 dat er meer verwarring op komt.

70
00:05:14,439 --> 00:05:16,760
Niels: En dan wilde zich meegeven.

71
00:05:16,759 --> 00:05:21,560
Niels: De karakteristieken van autonomie, zelflerend of ondersteunend van het feedback leren.

72
00:05:21,560 --> 00:05:23,079
Niels: En zaken kunnen waarnemen.

73
00:05:23,079 --> 00:05:26,519
Niels: En vooral die autonomie, dat is inderdaad denk ik het stukje let daarop.

74
00:05:26,519 --> 00:05:30,840
Niels: Want daar moet je gaan afkaderen en met elkaar goed over nadenken.

75
00:05:30,839 --> 00:05:33,560
Niels: Hoe ver is die autonomie en hoe ver vinden we dat die moet gaan.

76
00:05:33,639 --> 00:05:35,479
Joop: Precies, want daar moet je ook gaan afbaken.

77
00:05:35,480 --> 00:05:37,160
Joop: Wat mag een agent niet.

78
00:05:37,160 --> 00:05:39,480
Joop: En onder welke condities mag iets niet.

79
00:05:39,480 --> 00:05:45,240
Joop: En wordt die agent uitgevoerd onder jouw autorisatie.

80
00:05:45,240 --> 00:05:48,920
Joop: Of krijgt een agent een eigen autorisatiemodel.

81
00:05:48,920 --> 00:05:52,519
Joop: Dat zijn allemaal vraagstukken waar je naar moet gaan kijken.

82
00:05:52,519 --> 00:05:53,319
Niels: Nou, helder.

83
00:05:53,319 --> 00:05:55,079
Niels: En ook eentje die we gewoon prima kunnen toetsen.

84
00:05:55,399 --> 00:05:57,399
Niels: Hoeveel verwarring hierover gaat ontstaan.

85
00:05:57,399 --> 00:05:59,319
Joop: Toch jij een voorspelling?

86
00:05:59,319 --> 00:06:03,640
Niels: Ja, mijn voorspelling is dat we gaan leiden aan AI obesitas.

87
00:06:03,879 --> 00:06:05,319
Joop: Wat een mooie term.

88
00:06:05,480 --> 00:06:06,600
Joop: Wat betekent dat?

89
00:06:06,839 --> 00:06:09,079
Niels: Het zit een beetje in lijn met een stukje agent.

90
00:06:09,079 --> 00:06:17,240
Niels: Is we gaan nog meer overal stickers op krijgen met AI enabled, gaat steeds meer werkzaamheden proberen van je te ondersteunen.

91
00:06:17,480 --> 00:06:18,759
Niels: En ik zie het zelf ook wel van.

92
00:06:18,759 --> 00:06:24,120
Niels: Oh ja, dat denk dat is wel makkelijk, inderdaad, kan u even mijn powerpoint alvast voor me opstellen en gelijk even wat extra content doen.

93
00:06:24,120 --> 00:06:25,319
Niels: Je blijf maar eten.

94
00:06:25,319 --> 00:06:26,359
Niels: Je blijf maar happen.

95
00:06:26,360 --> 00:06:29,880
Niels: En volgens mij heb je het in eerdere podcast aflevering ook wel gezegd.

96
00:06:29,879 --> 00:06:33,000
Niels: Soms dwaal je af van waar je eigenlijk mee bezig was.

97
00:06:33,000 --> 00:06:37,719
Niels: En ik denk dat dat een trend is die we in 2026 bij heel veel mensen meer gaan zien.

98
00:06:38,040 --> 00:06:41,560
Niels: Dat we eigenlijk daardoor focus verliezen met welk doel hebben we.

99
00:06:41,560 --> 00:06:43,240
Niels: Hoe gaan we dat bereiken?

100
00:06:43,240 --> 00:06:45,880
Niels: Door de AI obesitas nog even een hapje.

101
00:06:45,879 --> 00:06:47,879
Niels: Het is zo makkelijk, het gaat zo snel.

102
00:06:47,879 --> 00:06:52,120
Niels: Maar achteraf heb je spijt van al die calorieën AI die je hebt toegenomen.

103
00:06:52,360 --> 00:06:53,480
Joop: Wat een goede.

104
00:06:54,680 --> 00:07:00,920
Joop: Ze hanteren hier bijna dezelfde principes om je zo lang mogelijk vast te houden op het platform.

105
00:07:01,720 --> 00:07:03,479
Joop: Vooral ChatGPT vind ik dat.

106
00:07:03,480 --> 00:07:05,640
Joop: Maar ik zie dat ook wel bij Claude komen.

107
00:07:05,639 --> 00:07:09,240
Joop: Dat iedere keer als jij iets gevraagd hebt en je hebt een antwoord teruggekregen.

108
00:07:09,879 --> 00:07:11,400
Joop: zal ik ook dit voor je maken?

109
00:07:11,399 --> 00:07:13,000
Joop: Zal ik dit voor je opstellen?

110
00:07:13,000 --> 00:07:14,519
Joop: Ik kan dit nog voor je doen.

111
00:07:14,519 --> 00:07:17,879
Joop: Waarbij het zo makkelijk is om alleen maar ja te zeggen.

112
00:07:18,199 --> 00:07:20,199
Joop: En daar ontstaat wat je ook bedoelt.

113
00:07:20,920 --> 00:07:22,040
Niels: Helemaal inderdaad.

114
00:07:22,040 --> 00:07:25,639
Niels: Kan ik het nog even een andere vorm doen, kan nog drie voorbeelden voor je uitwerken.

115
00:07:25,639 --> 00:07:28,120
Niels: Terwijl nee, dat was niet wat ik van plan was.

116
00:07:28,120 --> 00:07:32,280
Niels: Dus nee, ik hoef niet die extra kipnuggets of ik hoef niet die extra hamburger.

117
00:07:32,280 --> 00:07:34,040
Niels: Ik heb hier al voldoende aan.

118
00:07:35,480 --> 00:07:37,159
Joop: En hoe kijk jij daarna?

119
00:07:37,240 --> 00:07:41,879
Joop: Want er wordt steeds meer gesproken over dat er een AI-bubbel aan het ontstaan is.

120
00:07:41,879 --> 00:07:46,280
Joop: En dat bedoel ik niet de bubbel waar je in begeeft zijn, maar de economische bubbel.

121
00:07:46,279 --> 00:07:51,000
Joop: Er wordt zoveel geïnvesteerd in deze technologie, waarbij de vraag is.

122
00:07:51,000 --> 00:07:56,279
Joop: Kunnen de techbro's, kunnen die dat geld eigenlijk wel terugverdienen.

123
00:07:57,560 --> 00:08:03,399
Niels: Voor degene die nog niet hebben gekeken, Luba heeft hier echt een hele leuke aflevering over gemaakt.

124
00:08:03,560 --> 00:08:05,480
Niels: Zullen we ook even opnemen in de show notes.

125
00:08:05,480 --> 00:08:07,080
Niels: waarin dit helemaal toelicht.

126
00:08:07,079 --> 00:08:11,079
Niels: En ook even in de satire, zoals hij natuurlijk heeft mooi toelicht.

127
00:08:11,639 --> 00:08:16,119
Niels: Ik denk niet dat we daar in 2026 af nog meer gaan merken.

128
00:08:16,120 --> 00:08:17,560
Niels: We merken er nu al genoeg van.

129
00:08:18,120 --> 00:08:20,599
Niels: Dat zal doorgaan in 2026.

130
00:08:20,919 --> 00:08:23,959
Niels: En ik denk dat we er steeds meer bewust van worden, hoe we ermee omgaan.

131
00:08:23,960 --> 00:08:25,800
Niels: Maar ik denk dat dat nog niet in 2026 is.

132
00:08:26,120 --> 00:08:28,439
Niels: We gaan echt nog veel meer consumeren.

133
00:08:28,439 --> 00:08:30,519
Niels: Nog veel meer creëren.

134
00:08:30,519 --> 00:08:33,319
Niels: We zitten echt nog in de learning curve bij veel zaken.

135
00:08:33,319 --> 00:08:39,639
Niels: En ik hoop wel dat we gaan naar dat we AI inzetten waar AI waarde heeft.

136
00:08:39,879 --> 00:08:42,120
Niels: En dus eigenlijk ook die obesitas gaan voorkomen.

137
00:08:42,120 --> 00:08:47,080
Niels: Maar ik denk dat we daar echt een uitdaging hebben om met elkaar bewuste keuzes te maken.

138
00:08:47,079 --> 00:08:51,560
Niels: En niet overal maar AI voor in te zetten, omdat dat een makkelijke stap is.

139
00:08:51,559 --> 00:08:53,799
Joop: Maar de bubbel gaat nog niet barsten.

140
00:08:53,960 --> 00:08:56,680
Joop: Ik denk ook dat die eerst eerst nog groter wordt.

141
00:08:57,000 --> 00:08:58,520
Joop: Voordat we.

142
00:08:59,639 --> 00:09:04,279
Joop: Wat er wel gaat komen, als we het toch op economisch vlak hebben.

143
00:09:04,519 --> 00:09:09,320
Joop: Is dat er nog meer ontslagen gaan ontstaan.

144
00:09:09,720 --> 00:09:13,319
Joop: Waarbij AI de schuld krijgt.

145
00:09:13,480 --> 00:09:19,480
Joop: Dus we hebben nu natuurlijk gezien ABN AMRO die zegt van wat was het iets van 15% of zo.

146
00:09:19,559 --> 00:09:20,360
Joop: En moet er uit.

147
00:09:20,360 --> 00:09:23,960
Joop: En dat had te maken met de focus op AI.

148
00:09:25,559 --> 00:09:31,960
Joop: We kunnen echt wel stellen dat zij nog helemaal niet een productiviteitsverbetering van 15% hebben gehaald.

149
00:09:32,120 --> 00:09:35,560
Joop: Dat durf ik echt wel zo te zeggen.

150
00:09:35,879 --> 00:09:39,160
Joop: Ik denk dat er ook een vorm van wel van ambitie in zit.

151
00:09:39,400 --> 00:09:41,639
Joop: Dus in die in die 15%.

152
00:09:42,600 --> 00:09:48,720
Joop: Maar het is ook wel een manier om toch wel makkelijk onder ontslagen uit te komen.

153
00:09:48,720 --> 00:09:49,520
Joop: Hoe kijk jij daarna?

154
00:09:44,759 --> 00:09:51,920
Niels: Ja, ik weet niet of het noodzakelijk is.

155
00:09:52,480 --> 00:09:57,279
Niels: En daar zullen vast nog heel veel overwegingen bij de organisatie ook meespelen.

156
00:09:57,279 --> 00:10:05,840
Niels: Maar het is wel een extra middel met de ambitie en de advanced denken van die efficiëntie, dat we dit vaak zullen gaan zien.

157
00:10:05,840 --> 00:10:10,000
Niels: En ik denk dat er ook nog wel een aantal bedrijven zullen terugkomen op de keuze.

158
00:10:10,000 --> 00:10:15,199
Niels: Als ze eenmaal met AI echt de kritische processen en de adoptie gaan vergroten.

159
00:10:15,200 --> 00:10:22,080
Niels: Dat ze dan pas tegen de uitdaging aankomen dat we nog steeds mensen nodig hebben, alleen dat de mensen andere werkzaamheden gaan oppakken.

160
00:10:22,080 --> 00:10:27,199
Niels: Omdat we hier nog zitten waar we het wel vaker over hebben, het stukje dat we automatiseren wat we nu hebben.

161
00:10:27,200 --> 00:10:31,520
Niels: Terwijl we moeten naar iets nieuws een nieuw proces gaan oppakken.

162
00:10:31,519 --> 00:10:36,399
Niels: En daar hebben we wel gewoon de domeinkennis nodig, de experts die al jaren meegaan, de senioriteit.

163
00:10:36,399 --> 00:10:45,840
Niels: En die kunnen juist die nieuwe processen en de kanttekeningen die daarvoor nodig zijn, beter uit stippelen dan dat je dat met nieuwe krachten of met AI wil gaan doen.

164
00:10:46,080 --> 00:10:49,680
Niels: Dus ik denk dat daar nog wel bedrijven van terug gaan komen op dat stuk.

165
00:10:50,159 --> 00:10:53,040
Joop: Zelfs Gartner, dat adviesbureau.

166
00:10:53,039 --> 00:11:00,240
Joop: Die heeft een voorspelling gedaan dat 40% of misschien wel hoger.

167
00:11:01,120 --> 00:11:07,920
Joop: Dit soort initiatieven direct gaan falen of worden teruggetrokken, omdat ze geen aantoonbare waarde leveren.

168
00:11:08,000 --> 00:11:10,080
Joop: Dat is best wel heel erg fors.

169
00:11:10,879 --> 00:11:17,600
Joop Snijder: En dat raakt ook nog steeds aan de kloof die er is van pilot naar productie.

170
00:11:17,840 --> 00:11:21,600
Joop Snijder: Ze zien dat er heel veel bedrijven in de pilotfase zitten.

171
00:11:21,600 --> 00:11:27,200
Joop Snijder: En dat maar een klein deel eruit komt en naar zich naar productie weet.

172
00:11:27,919 --> 00:11:30,159
Niels Naglé: Door te groeien, te evalueren, inderdaad.

173
00:11:30,159 --> 00:11:33,760
Niels Naglé: Dus echt de stap van hoe embed je het binnen je organisatie.

174
00:11:33,759 --> 00:11:35,120
Niels Naglé: Hoe ga je je proces ermee om?

175
00:11:35,120 --> 00:11:37,439
Niels Naglé: Maar ook ga je met organisatie cultuur om.

176
00:11:37,440 --> 00:11:39,120
Niels Naglé: Ja, dat is change management.

177
00:11:39,120 --> 00:11:45,279
Niels Naglé: En dat kost ook gewoon tijd en dan moet je tijd voor pakken, wil je de waarde eruit halen die je in de pilot ziet.

178
00:11:45,279 --> 00:11:48,800
Niels Naglé: Maar dat betekent daarna dus doorzweten om dat goed te laten landen.

179
00:11:48,799 --> 00:11:50,639
Niels Naglé: En dan heb je de big benefits ervan.

180
00:11:50,639 --> 00:11:54,799
Joop Snijder: Ja, en ik denk dat in 2026 is echt wel het jaar van pilot naar productie.

181
00:11:54,799 --> 00:11:58,080
Joop Snijder: Dus ik denk dat heel veel bedrijven hebben dat nou geproefd gezien.

182
00:11:58,399 --> 00:12:01,199
Joop Snijder: Maar de investeringen moeten ook terugverdiend worden.

183
00:12:01,200 --> 00:12:02,800
Joop Snijder: Dus we moeten nu de stap gaan maken.

184
00:12:02,799 --> 00:12:06,320
Joop Snijder: Dus waar er misschien eerst drempels gevoeld werden.

185
00:12:06,480 --> 00:12:09,360
Joop Snijder: Worden die misschien nu wel genomen.

186
00:12:10,559 --> 00:12:12,720
Joop Snijder: Er moet die stap moet gemaakt worden.

187
00:12:12,720 --> 00:12:16,000
Joop Snijder: En ik denk dat 2026 daar echt het jaar voor is.

188
00:12:16,960 --> 00:12:19,200
Joop Snijder: Als dat niet gebeurt.

189
00:12:19,840 --> 00:12:22,799
Joop Snijder: Dan gaan we dan krijgen we wel een probleem.

190
00:12:23,440 --> 00:12:29,279
Joop Snijder: Want dan nemen we straks ook de investeringen af in dit soort trajecten.

191
00:12:29,279 --> 00:12:32,000
Joop Snijder: En dan moeten we maar eens gaan kijken hoe zich dat gaat ontwikkelen.

192
00:12:32,000 --> 00:12:33,759
Joop Snijder: Maar ik heb er een positieve blik op.

193
00:12:33,759 --> 00:12:38,480
Joop Snijder: Ik denk dat echt de stap pilot productie, dat die nu daadwerkelijk genomen wordt.

194
00:12:38,480 --> 00:12:49,600
Joop Snijder: We zien ook dat leveranciers zoals Microsoft, anderen zullen dat ook hebben, daar ook stappen in ondernemen dat ze zien van ja, maar die agents die moeten ook goed gemonitord kunnen worden.

195
00:12:49,600 --> 00:12:54,000
Joop Snijder: Die moet je ook een identiteit kunnen geven, die moeten beveiligd kunnen worden.

196
00:12:54,000 --> 00:12:58,079
Joop Snijder: Dus we zien daar ook dat het meer enterprise ready wordt.

197
00:12:58,079 --> 00:13:00,879
Joop Snijder: Dat is waar we eerst in cowboy land leefden.

198
00:13:00,879 --> 00:13:02,879
Joop Snijder: van, we hebben een agent zoek het uit.

199
00:13:03,120 --> 00:13:04,560
Joop Snijder: Gaaf, hij doet iets.

200
00:13:04,559 --> 00:13:05,920
Joop Snijder: Maar we kunnen dat.

201
00:13:06,559 --> 00:13:11,200
Joop Snijder: Het is een stier die we een wilde stier die we onder controle moeten zien te houden.

202
00:13:11,200 --> 00:13:14,799
Joop Snijder: Gaan we veel meer naar duidelijke governance.

203
00:13:14,799 --> 00:13:16,640
Joop Snijder: Duidelijke security.

204
00:13:16,960 --> 00:13:20,240
Joop Snijder: Dat het er ook moet ik het zeggen.

205
00:13:20,240 --> 00:13:27,840
Joop Snijder: Makkelijker wordt, denk ik, om die stap te nemen dat je dat je minder lef nodig heeft om toch te zeggen van we gaan in productie hiermee.

206
00:13:27,839 --> 00:13:35,360
Niels Naglé: Ja, omdat inderdaad de kaders en vanuit de technologie vanuit de organisatie die hulpmiddelen daarvoor bieden, het makkelijker gemaakt wordt om dat te doen.

207
00:13:35,600 --> 00:13:39,679
Niels Naglé: Waardoor het gevoel van geloof van kennis die nodig is kleiner worden.

208
00:13:39,680 --> 00:13:46,799
Niels Naglé: Ik denk dat inderdaad het jaar, en het moet ook wel het jaar worden van 2026 en inderdaad, van pilot naar productie om echt die waarde gaan aan te tonen.

209
00:13:46,799 --> 00:13:50,000
Niels Naglé: En ik denk dat het ook wel het jaar is waardoor dus ook de adoptie.

210
00:13:50,319 --> 00:13:54,480
Niels Naglé: Als het goed is, naar mijn beeld, sneller zal toenemen dan de afgelopen jaar.

211
00:13:55,279 --> 00:13:56,560
Niels Naglé: En de adoptiebreed.

212
00:13:56,799 --> 00:14:06,240
Niels Naglé: Dus we hebben met ChatGPT wel een hele mooie boost gekregen aan wat mensen met AI ervan verstaan en een beeld te bij hebben.

213
00:14:06,480 --> 00:14:09,120
Niels Naglé: En nu zien we het steeds meer toegepast worden in de praktijk.

214
00:14:09,120 --> 00:14:12,240
Niels Naglé: Dus die kennis zal alleen maar toenemen, moeten ook toenemen.

215
00:14:12,399 --> 00:14:20,159
Niels Naglé: En ik hoop dat daarmee dus ook inderdaad de stap naar het stukje bedrijfskritische oplossingen durven aan te gaan met AI.

216
00:14:20,159 --> 00:14:22,320
Niels Naglé: En ja, daar is gewoon kennis en ervaring voor nodig.

217
00:14:22,319 --> 00:14:23,600
Niels Naglé: En die moeten we gaan opdoen.

218
00:14:23,960 --> 00:14:29,639
Joop Snijder: En dan kijk, als je dit luistert, kan ik me voorstellen dat ik denk van, maar dat is eigenlijk wel een beetje tegenstrijdig.

219
00:14:29,600 --> 00:14:33,960
Joop Snijder: Aan de ene kant zeggen we van die ontslagen vanwege AI een beetje flauwekul.

220
00:14:34,200 --> 00:14:39,560
Joop Snijder: Aan de andere kant, we krijgen meer adoptie van de technologie, van agents.

221
00:14:39,799 --> 00:14:42,520
Joop Snijder: De AI is meer dan agents.

222
00:14:43,080 --> 00:14:45,399
Joop Snijder: Dat is wat je zegt, de adoptie neemt toe.

223
00:14:45,559 --> 00:14:47,720
Joop Snijder: Hoe verhoudt zich dat tot elkaar.

224
00:14:47,720 --> 00:14:55,000
Joop Snijder: En daar had ik ook wel een aardig stukje gelezen van Matthijs Bouwman in het FD, financieel dagblad.

225
00:14:55,399 --> 00:14:58,920
Joop Snijder: Die zei van ja, dit soort beloftes zijn heel vaak gedaan.

226
00:14:58,919 --> 00:15:01,000
Joop Snijder: Dat is bij de robotisering.

227
00:15:01,080 --> 00:15:03,159
Joop Snijder: Robotisering in de industrie.

228
00:15:03,159 --> 00:15:08,200
Joop Snijder: En werd ook gezegd van ja, we hebben geen mensen meer nodig en banen verdwijnen.

229
00:15:08,200 --> 00:15:14,280
Joop Snijder: En je zou het helemaal terug kunnen trekken naar andere industriele revoluties.

230
00:15:14,440 --> 00:15:20,920
Joop Snijder: Wat er gebeurd is, is dat we iedere keer meer banen bij zijn gekomen.

231
00:15:21,240 --> 00:15:23,799
Joop Snijder: Wel veel meer differentiatie, denk ik.

232
00:15:24,120 --> 00:15:27,080
Joop Snijder: Maar echt een krimp is er nooit geweest.

233
00:15:27,080 --> 00:15:34,280
Joop Snijder: Maar waar het wel voor heeft gezorgd, is dat we productiever zijn geworden, minder uren per week zijn gaan werken.

234
00:15:35,159 --> 00:15:42,520
Joop Snijder: Waar ik niet in geloof, is Elon Musk had weer geloof ik zoiets of zo van in de toekomst worden banen optioneel.

235
00:15:42,759 --> 00:15:45,320
Joop Snijder: En doe je alleen nog maar wat je leuk vindt of zo.

236
00:15:45,480 --> 00:15:56,520
Niels Naglé: Die toekomst lag al vrij dichtbij, en inderdaad, van als je nu in je studie bezig bent, waarom doe je dat dan echt reinste flauwekul, daar geloof ik echt helemaal niet van.

237
00:15:58,120 --> 00:15:58,920
Joop Snijder: In die zin.

238
00:15:59,159 --> 00:16:03,799
Joop Snijder: Dus ik geloof er inderdaad in van pilot naar productie, wat je zegt adoptie verhogen.

239
00:16:03,799 --> 00:16:08,440
Joop Snijder: Maar dat zorgt er vooral voor dat we werk anders gaan inrichten.

240
00:16:09,000 --> 00:16:17,559
Joop Snijder: En dat kan betekenen dat we of meer gaan doen in minder tijd, maar er ligt altijd nog zoveel andere werk.

241
00:16:17,559 --> 00:16:21,319
Joop Snijder: En alles verzinnen we het wel, zo zijn we ook wel weer.

242
00:16:21,319 --> 00:16:22,919
Niels Naglé: Er zal weer nieuw werk gaan ontstaan.

243
00:16:23,079 --> 00:16:26,280
Niels Naglé: Technologie geeft weer nieuwe mogelijkheden, nieuwe oplossingen.

244
00:16:27,080 --> 00:16:34,760
Niels: Nieuwe zaken met robots, nieuwe zaken in binnen bedrijfsleven, het menselijk creativiteit, wordt nog wel eens onderschat, heb ik het vermoeden.

245
00:16:34,920 --> 00:16:40,280
Joop: Denk jij heb je een idee van een rol, een functie, een taak.

246
00:16:40,279 --> 00:16:46,360
Joop: Die gaat ontstaan in 2026, die we nu misschien nog niet of niet zo heel goed kennen.

247
00:16:47,240 --> 00:16:48,680
Niels: Goede vraag.

248
00:16:48,759 --> 00:16:50,040
Joop: Zal ik er eentje ingooien?

249
00:16:50,680 --> 00:16:51,800
Joop: Dat heb ik bedacht.

250
00:16:51,879 --> 00:16:54,040
Joop: Ja, de AI manager.

251
00:16:54,840 --> 00:17:06,919
Joop: Stel dat de belofte van dat je een taskforce hebt, dus allemaal agents, werkers die voor jou werken, dat betekent dat je je eigen werk verandert.

252
00:17:06,920 --> 00:17:14,359
Joop: Dat betekent dat je misschien wel management skills nodig gaat hebben om die agents aan het werk te houden.

253
00:17:15,000 --> 00:17:16,679
Joop: Niet iedereen heeft dat.

254
00:17:16,680 --> 00:17:19,799
Joop: Ik denk ook niet dat iedereen die ambitie heeft.

255
00:17:20,759 --> 00:17:32,359
Niels: Dat moet ook vooral passen, de werkzaamheden die daarbij komt kijken, om meer supervisie en inderdaad, orchestratie te gaan doen in plaats van hetzelf uit te voeren, wat misschien juist in de passie van iemand ligt.

256
00:17:34,200 --> 00:17:35,719
Niels: Helaas kwam ik een beetje op hetzelfde link.

257
00:17:35,720 --> 00:17:40,600
Niels: Maar mij was het in orchestra, dus het orchestreren van al die agents, hoe gaan het samenwerkingen dan.

258
00:17:40,599 --> 00:17:46,200
Niels: En misschien is het inderdaad wel de mediator tussen de AI agents inderdaad, dat moet gaan ontstaan.

259
00:17:46,200 --> 00:18:02,359
Niels: Want nu hebben we nog binnen een organisatie agents die misschien samenwerken, maar als we tussen organisaties met AI agents gaan samenwerken, daar zal ook iets voor in het leven gaan komen, verwacht ik, weet je of de 2026 ga zijn, ik denk het eigenlijk wel, omdat we daar al meer agents zullen gaan zien.

260
00:18:02,360 --> 00:18:11,799
Niels: Dat er een soort van mediator tussen komt, dat die gaat onderhandelen, maar dat we echt nog iemand extra nodig hebben, dat die AI's niet elkaar zo weg onderhandelen, dat er eigenlijk een mediator nodig ga zijn.

261
00:18:12,039 --> 00:18:15,720
Niels: Dat kan ook misschien wel weer een AI zijn of gecombineerd.

262
00:18:16,920 --> 00:18:26,759
Joop: Gisteren zei iemand ook van is er zo direct niet ook heel veel menselijk werk die de agents in de gaten te houden.

263
00:18:26,759 --> 00:18:30,759
Joop: En dat bedoel ik dus niet het werk uitdelingen, want daar hebben we de management.

264
00:18:31,079 --> 00:18:36,759
Joop: Maar je doet de agent wel die moet doen, wat die mag doen.

265
00:18:37,000 --> 00:18:41,000
Joop: Er zal zo direct ook wel echt supervisiemonitoring moeten plaatsvinden.

266
00:18:41,000 --> 00:18:46,199
Joop: En als we een hele zwerm aan agents hebben lopen, zal dat waarschijnlijk ook een dagtaak worden.

267
00:18:47,319 --> 00:18:49,480
Joop: Een soort van beveiliger of zo.

268
00:18:49,720 --> 00:18:51,479
Joop: De agent beveiliger.

269
00:18:51,639 --> 00:18:56,120
Joop: Die kijkt van, blijven alle kikkers wel eigenlijk in de kruibagen.

270
00:18:57,240 --> 00:19:03,160
Niels: Een quality officer of een kwaliteitsmanager, inderdaad, die dat soort zaken in de gaten houdt, dat is gewoon nodig.

271
00:19:05,079 --> 00:19:07,799
Joop: Ik heb natuurlijk ook de boek geschreven over AI-agents.

272
00:19:07,839 --> 00:19:11,240
Joop: Voorspelling is dat hij heel goed wordt verkocht aankomend jaar.

273
00:19:12,079 --> 00:19:16,159
Joop: Nee, maar een van de dingen, want daar heb ik het ook wel over nieuwe functies.

274
00:19:14,840 --> 00:19:18,800
Joop: En eentje die daarin staat, is de AI-trainer.

275
00:19:20,880 --> 00:19:24,160
Joop: Dat is wat anders dan iemand die zelf modellen maakt.

276
00:19:24,160 --> 00:19:25,839
Joop: Want daar hebben we het natuurlijk ook over trainen.

277
00:19:25,839 --> 00:19:29,839
Joop: Dan hebben we het over machine learning modellen die traint, maar dat is een data scientist.

278
00:19:29,839 --> 00:19:33,279
Joop: Maar daar heb ik het over de AI agents.

279
00:19:33,680 --> 00:19:36,000
Joop: Wat moet die doen, wat kan die doen.

280
00:19:36,240 --> 00:19:40,240
Joop: Want uiteindelijk moet dat natuurlijk ook goed vastgelegd worden.

281
00:19:40,240 --> 00:19:42,160
Joop: En dat is geen prompt engineering.

282
00:19:42,160 --> 00:19:50,240
Joop: Dat is veel meer dat je na kijkt van in welke stap, wat moet die kunnen, wat mag die niet, welke data is nodig, de context.

283
00:19:51,200 --> 00:19:52,720
Joop: En dat verbeteren.

284
00:19:52,720 --> 00:19:57,279
Joop: Want je werkzaamheden van je bedrijf veranderen ook steeds.

285
00:19:57,279 --> 00:20:02,079
Joop: Dus je moet die agent moet je ook steeds weer de juiste richting in drukken.

286
00:20:02,720 --> 00:20:07,040
Joop: Dus net als dat je iemand hebt die nieuwe mensen opleidt onboard.

287
00:20:07,279 --> 00:20:13,600
Joop: Heb je iemand nodig die gespecialiseerd wordt in hoe je agents opleid en omboord.

288
00:20:13,839 --> 00:20:20,000
Niels: En moeten de capabilities groeien, moeten we inderdaad nog een keer een goed gesprek hebben en functioneren gesprekken wat we hebben over gehad hebben.

289
00:20:20,000 --> 00:20:21,920
Niels: Ik denk dat inderdaad wel nodig gaat zijn.

290
00:20:21,920 --> 00:20:26,159
Niels: Zeker omdat de data, de process wat je zegt binnen organisatie wijzigt.

291
00:20:26,480 --> 00:20:27,919
Niels: Wordt dat denk ik nog wel onderschat.

292
00:20:27,920 --> 00:20:31,920
Niels: En ik denk dat we in 2026 meer gaan zien dat dat onderschat wordt.

293
00:20:31,920 --> 00:20:39,839
Niels: Wat er bij komt kijken om dit goed met goede kwaliteit te laten draaien en de risico's dat goed te managen.

294
00:20:40,880 --> 00:20:44,240
Niels: We hebben nu aan het voorspellen zijn we geweest, inderdaad, voor 2026 rollen.

295
00:20:44,240 --> 00:20:46,800
Niels: We hebben ook nog een voorspelling gedaan uit 2023.

296
00:20:46,799 --> 00:20:50,079
Niels: Misschien ook wel leuk om die even mee te nemen van goh, leuk.

297
00:20:50,079 --> 00:20:52,400
Niels: Maar wat is daar nou eigenlijk uit naar voren gekomen?

298
00:20:52,400 --> 00:20:54,399
Joop: Ja, en daar hadden we vooral gekeken van.

299
00:20:55,039 --> 00:20:58,480
Joop: Er was een lijst, zeg maar die we zelf hadden opgesteld.

300
00:20:58,480 --> 00:21:11,039
Joop: Dus volgens mij hebben we het daar nooit echt in de in de podcast over gehad, maar er was meer een lijstje van welke rollen, zeker functies, hebben een groot gevaar dat ze vervangen worden door AI.

301
00:21:11,119 --> 00:21:13,519
Joop: En dan hebben we het eens over 2023.

302
00:21:14,799 --> 00:21:16,480
Joop: Begin 2023.

303
00:21:16,480 --> 00:21:20,240
Joop: Dus op het moment dat je dit luistert je minstens twee jaar verder.

304
00:21:20,400 --> 00:21:22,960
Joop: Dachten is misschien wel grappig.

305
00:21:22,960 --> 00:21:29,040
Joop: En denk ik ook dat het een misschien wel een eye-opener kan zijn van wat er wel of niet verandert en hoe snel het gaat.

306
00:21:29,039 --> 00:21:32,399
Niels: Ja, ik denk dat we dat nog wel eens onder of overschatten.

307
00:21:32,799 --> 00:21:34,560
Niels: We hebben de drie uitgepikt.

308
00:21:34,559 --> 00:21:38,480
Niels: En de eerste die we hebben uitgepikt is de copywriter.

309
00:21:38,799 --> 00:21:52,639
Niels: En de copywriter hadden we bij dat AI zal het schrijven en uitwerken van de teksten naar dezelfde kwaliteit als de mens kunnen uitvoeren, waardoor het werk van de copywriter overbodig zal worden.

310
00:21:53,279 --> 00:21:57,439
Joop: Nou, zijn wij allebei geen copywriter en zitten wij ook niet in die business.

311
00:21:57,440 --> 00:22:04,000
Joop Snijder: Maar we kunnen hier denk ik wel concluderen dat in ieder geval het vak hiervan behoorlijk verschoven is.

312
00:22:04,000 --> 00:22:07,839
Joop Snijder: We hebben natuurlijk ook genoeg gasten gehad over dit onderwerp.

313
00:22:07,839 --> 00:22:11,919
Joop Snijder: O het menselijke kwaliteit is, dat vraag ik me af.

314
00:22:11,920 --> 00:22:17,440
Joop Snijder: Maar we hebben natuurlijk ook een verschuiving gekregen van wat we als mens acceptabel vinden.

315
00:22:17,440 --> 00:22:18,079
Niels Naglé: Inderdaad.

316
00:22:18,079 --> 00:22:23,519
Niels Naglé: En ik denk dat met die verschuiving, dat inderdaad veel van het werk van de copyright is verandert.

317
00:22:23,519 --> 00:22:32,240
Niels Naglé: En dat er ook weer veel hetzelfde gebleven is, namelijk welke essentie wil je overbrengen, is het de juiste toon, hoe zit de juiste emotie erin.

318
00:22:32,240 --> 00:22:36,799
Niels Naglé: En dat daar meer de focus op gelegd wordt van hoe gaat dat mee in de uitingen.

319
00:22:36,799 --> 00:22:40,960
Niels Naglé: En dat daar eigenlijk de kracht van de mens nog beter naar voren komt.

320
00:22:40,960 --> 00:22:43,919
Niels Naglé: Maar het heeft wel enorme impact in zo'n reden van wat.

321
00:22:44,000 --> 00:22:45,119
Joop Snijder: Ik denk die flink geraakt zijn.

322
00:22:45,119 --> 00:22:46,480
Niels Naglé: Ik denk dat die heel goed geraakt zijn.

323
00:22:47,759 --> 00:22:51,039
Niels Naglé: Andere is de teacher, de onderwijzer.

324
00:22:51,039 --> 00:22:59,440
Niels Naglé: En daarbij staat dat AI zal dus het individueel lesprogramma's en leertrajecten veel beter kunnen ondersteunen.

325
00:22:59,440 --> 00:23:03,039
Niels Naglé: Waardoor het persoonlijk maken van het leertraject.

326
00:23:03,200 --> 00:23:06,400
Niels Naglé: Door AI veel makkelijker en toegepast kan worden.

327
00:23:07,920 --> 00:23:09,839
Niels Naglé: Ja, wat zien we er daarvan terug?

328
00:23:09,840 --> 00:23:13,279
Niels Naglé: Ik denk dat dit wel eentje is die een beetje overschat is op dit moment.

329
00:23:13,279 --> 00:23:15,599
Niels Naglé: En dat ligt misschien niet eens in de technologie.

330
00:23:15,599 --> 00:23:21,600
Niels Naglé: En ik denk dat het zelfs niet aan de technologie ligt, maar met name aan wat komt er bij kijken om dat te gaan doen.

331
00:23:21,599 --> 00:23:26,000
Niels Naglé: Wat zijn de risico's ervan van het volledige gepersonaliseerd te hebben, gaan we daar niet bubbels creëren.

332
00:23:26,000 --> 00:23:28,960
Niels Naglé: En dat we daar juist nu wel de discussies zien.

333
00:23:28,960 --> 00:23:33,199
Niels Naglé: Maar dat het al helemaal vervangen is en dat we daar echt significante stappen vooruit hebben gemaakt.

334
00:23:33,200 --> 00:23:37,279
Niels Naglé: Ik denk dat we mooie stappen daarin maken, maar dat we daar voorzichtige stappen in moeten maken.

335
00:23:37,279 --> 00:23:42,639
Joop Snijder: En dat gebeurt ook zie ik in het hele gepersonaliseerde, dat valt denk ik heel erg tegen.

336
00:23:42,639 --> 00:23:46,720
Joop Snijder: En aan de andere kant zijn ze natuurlijk ook wel heel erg geraakt, maar dan op een ander vlak.

337
00:23:46,720 --> 00:23:55,680
Joop Snijder: Om wat het betekent toetsen en dat al die studenten en allemaal in ChatGPT zitten.

338
00:23:57,279 --> 00:24:01,480
Joop Snijder: Hoe leer je nog, zeg maar in dit tijdperk waarin alles wordt aangedragen.

339
00:24:02,119 --> 00:24:07,639
Niels Naglé: Maar de vervanging daar zal nog veel voor nodig zijn, inderdaad.

340
00:24:07,640 --> 00:24:12,759
Niels Naglé: Maar ik denk dat we eerst moeten focussen op de andere zaken, hoe blijven we leren, hoe zorgen we van junior naar senior te gaan.

341
00:24:12,759 --> 00:24:21,960
Niels Naglé: Allemaal vraagstukken die denk ik een versneld focusgebied zijn geworden, vanwege inderdaad de introductie van ZGPT en de andere tools die daarbij kan bekijken.

342
00:24:22,759 --> 00:24:26,279
Niels Naglé: En de derde, dat zit in de medische kant.

343
00:24:26,920 --> 00:24:28,839
Niels Naglé: Daar pak ik even erbij.

344
00:24:29,480 --> 00:24:33,319
Niels Naglé: De medical receptionist was daarbij het geval.

345
00:24:33,319 --> 00:24:36,360
Niels Naglé: Dus de receptionisten in het medisch vakgebied.

346
00:24:36,359 --> 00:24:42,839
Niels Naglé: Waarbij eigenlijk alle handelingen voor administratieve werkzaamheden middels AI toegepast kunnen worden.

347
00:24:42,839 --> 00:24:45,320
Niels Naglé: En dat dat dus eigenlijk gewoon volledig geautomatiseerd is.

348
00:24:45,319 --> 00:24:47,799
Niels Naglé: Dat was de voorspelling in 2023.

349
00:24:48,200 --> 00:24:49,319
Niels Naglé: Dat vind ik wel terug.

350
00:24:50,119 --> 00:24:57,240
Joop Snijder: Eerlijk gezegd, ik kom nog wel eens in het ziekenhuis of op contact met mijn huisartsen vanwege verschillende redenen.

351
00:24:57,640 --> 00:24:59,800
Joop Snijder: Ik merk daar zelf nog niet van.

352
00:24:59,799 --> 00:25:07,480
Joop Snijder: Ik geloof er wel heilig in dat het heel erg behulpzaam kan zijn, deze technologie.

353
00:25:07,720 --> 00:25:11,240
Joop Snijder: En dat we het ook nodig hebben, sowieso tegen de vergrijzing.

354
00:25:11,240 --> 00:25:17,319
Joop Snijder: En dat je veel meer zorgt dat je handen aan het bed hebt.

355
00:25:17,639 --> 00:25:20,199
Joop Snijder: Dat de artsen veel meer aandacht voor je hebben.

356
00:25:20,200 --> 00:25:21,799
Joop Snijder: Of in ieder geval.

357
00:25:22,119 --> 00:25:28,279
Joop Snijder: Ik denk dat iedereen weet dat er veranderingen plaats moeten vinden op dit gebied.

358
00:25:28,279 --> 00:25:29,960
Joop Snijder: Maar ik zie ze nog niet.

359
00:25:30,440 --> 00:25:38,120
Joop Snijder: Ik heb eerder dat ik zie van dat ik vaker gebeld wordt van je weet je dat je morgen nog deze afspraak hebt.

360
00:25:38,519 --> 00:25:41,720
Joop Snijder: Dat er nog heel veel handwerk zeg maar wordt uitgevoerd.

361
00:25:42,599 --> 00:25:46,679
Joop Snijder: De arts zit nog steeds te typen, terwijl die naar mij luistert.

362
00:25:47,319 --> 00:25:48,279
Joop Snijder: Ja, ik weet het niet.

363
00:25:48,279 --> 00:25:49,480
Joop Snijder: Zie jij er wat van?

364
00:25:49,559 --> 00:25:51,559
Niels Naglé: Ja, ik zie zeker wel goede ontwikkelingen.

365
00:25:51,559 --> 00:26:03,720
Niels Naglé: Ik zie hele specifieke taalmodellen die je lokaal kan draaien, zodat het privacy aspect daar gewaarborgd wordt, maar ook taalmodellen gefinetuned worden op dokters talk.

366
00:26:03,720 --> 00:26:08,759
Niels Naglé: En dus niet de doktershandschrift, wat dat zo handig is, maar ook gewoon welke terminologie heb je.

367
00:26:08,759 --> 00:26:11,799
Niels Naglé: En dat daar echt gewoon goede stappen gemaakt worden.

368
00:26:11,799 --> 00:26:17,960
Niels Naglé: Maar dat is wel het stukje van we hadden verwacht dat het heel snel zou gaan, maar dit zijn kleine stapjes.

369
00:26:17,960 --> 00:26:19,799
Niels Naglé: En dat zijn zorgvuldige stapjes.

370
00:26:19,799 --> 00:26:22,919
Niels Naglé: Maar dan zie ik wel hele grote ontwikkelingen, inderdaad, om dat mogelijk te maken.

371
00:26:22,920 --> 00:26:28,040
Niels Naglé: En dat zijn een aantal van die taken dat als je in het gesprek met de arts bezig bent, dat die daarin ondersteund wordt.

372
00:26:28,039 --> 00:26:30,200
Niels Naglé: En dat de documentatie dus eruit komt rollen.

373
00:26:30,200 --> 00:26:33,639
Niels Naglé: Maar ja, dat zal nog gewoon wat werk hebben omdat van het goede kwaliteit hebben.

374
00:26:33,640 --> 00:26:36,599
Niels Naglé: Want je wil daar geen fouten maken met interpretaties.

375
00:26:36,839 --> 00:26:41,559
Niels Naglé: Je zal me net even net een andere code noteren, dan kan het nogal een significante impact hebben.

376
00:26:41,559 --> 00:26:47,240
Joop Snijder: Ja, maar hier zit denk ik de adoptie eerder het struikelblok dan misschien de technologie.

377
00:26:47,240 --> 00:26:56,040
Niels Naglé: Ja, en ik denk de technologie ook nog wel specifieke, secure modellen, dat dat ook wel iets is wat ontwikkeld wordt.

378
00:26:56,039 --> 00:27:00,679
Niels Naglé: De technologie kan het al, om het goed in productie te brengen, dat daar nog wel uitdagingen zitten.

379
00:27:00,680 --> 00:27:06,519
Niels Naglé: Dus ik denk zowel adoptie als inderdaad toch ook wel de technologie om dat op een goede secure manier mogelijk te maken.

380
00:27:07,079 --> 00:27:10,680
Joop Snijder: Dat is misschien wel goed om de stap te maken naar de taalmodellen.

381
00:27:11,319 --> 00:27:21,240
Joop Snijder: Want wat ik daarvoor zie in 2026, is dat we wel heel veel gedoe krijgen rond de taalmodellen.

382
00:27:21,559 --> 00:27:28,759
Joop Snijder: Dus we zien nu natuurlijk Jamina is net met een nieuwe versie gekomen en er wordt dan omgesprongen van dat is nu het beste model.

383
00:27:28,920 --> 00:27:33,559
Joop Snijder: Hiervoor hadden we de uitkomsten van ChatGPT vijf.

384
00:27:33,960 --> 00:27:39,480
Joop Snijder: En we gaan, net als dat we een hele tijd geleden van die browser wars hadden, van deze browser is nu erbij zijn.

385
00:27:39,480 --> 00:27:40,600
Joop Snijder: Nee, deze is de beste.

386
00:27:40,599 --> 00:27:47,159
Joop Snijder: gaan we dat ook ook in 2026 door gaat dat wat mij betreft het, noem ik het dan ook.

387
00:27:47,639 --> 00:27:49,320
Joop Snijder: Oh ja, maar nu is deze de beste.

388
00:27:49,319 --> 00:27:53,159
Joop Snijder: En nu moet je nu moet je weer open AI hebben, nu moet je klopt hebben.

389
00:27:53,799 --> 00:28:01,560
Joop Snijder: Daar gaan we duizend en één meningen over krijgen, zonder dat er nou hele grote doorbraken komen.

390
00:28:01,559 --> 00:28:06,680
Joop Snijder: Ik denk dat 2026 niet in het teken staat van taalmodel doorbraken.

391
00:28:06,680 --> 00:28:08,840
Joop Snijder: Wat je wel gaat krijgen, is dus nieuwe features.

392
00:28:09,000 --> 00:28:19,719
Joop Snijder: Dat ze dingetjes om die taalmodellen heen bouwen, waardoor er dingen handiger gaan, of dat het makkelijker wordt om het te gebruiken en dat het daardoor ook misschien beter voelt.

393
00:28:20,039 --> 00:28:24,359
Joop Snijder: Maar echt als fundamentele doorbraak.

394
00:28:24,360 --> 00:28:28,519
Joop Snijder: Dat hele andere dingen kunnen geloof ik niet in.

395
00:28:29,400 --> 00:28:32,359
Niels Naglé: Ik denk dat we daar een beetje geleerd aan het obesitas.

396
00:28:32,440 --> 00:28:40,200
Niels Naglé: Ook hier inderdaad een steeds meer en meer opties erbij krijgen op de bestaande modellen, dat je op den duur niet meer weet welke keuze moet ik naar maken.

397
00:28:40,200 --> 00:28:46,319
Niels Naglé: Ik denk dat keuzestress hier ook enorm voor goed nemen in 2026 van oh, heb ik wel de juiste tool.

398
00:28:46,319 --> 00:28:47,680
Niels Naglé: Oh, maar die features heb ik niet.

399
00:28:47,680 --> 00:28:49,600
Niels Naglé: Ja, maar die fiets heb je misschien ook helemaal niet nodig.

400
00:28:44,840 --> 00:28:50,880
Niels Naglé: Nee, maar ik heb hem niet.

401
00:28:51,039 --> 00:28:56,399
Niels Naglé: Ik denk dat dat echt wel een vraagstuk is dat veel bedrijven en individuen daarmee zullen worstelen.

402
00:28:57,279 --> 00:28:58,240
Niels Naglé: Wat kan het wel?

403
00:28:58,240 --> 00:29:01,759
Niels Naglé: Waar is het goed in, moet ik toch niet die extra tool erbij hebben.

404
00:29:01,759 --> 00:29:10,480
Niels Naglé: En dadelijk zitten we met 25 subscripties van allemaal verschillende tooltjes en taalmodellen om ons werk efficiënter te maken, maar niet efficiënter te zijn.

405
00:29:10,480 --> 00:29:14,799
Joop Snijder: Nou, en dat raakt denk ik ook aan juiste features in een product.

406
00:29:14,880 --> 00:29:22,559
Joop Snijder: Dus als je ziet, zeg maar hoeveel flauw gezegd, hoeveel knopjes en opties je erbij hebt gekregen in een ChatGPT.

407
00:29:22,559 --> 00:29:27,120
Joop Snijder: Dat het misschien ook wel de adoptie zo direct moeilijker maakt.

408
00:29:27,119 --> 00:29:33,519
Joop Snijder: En dus hoe vaker we allemaal niet moeten uitleggen van ja, maar wat is nou een verschil met een custom GPT met een project.

409
00:29:33,519 --> 00:29:37,040
Joop Snijder: En dan heb je custom instructions in zijn geheel.

410
00:29:37,039 --> 00:29:42,240
Joop Snijder: Je hebt custom instructie voor de custom GPT, je voor het project.

411
00:29:42,559 --> 00:29:45,120
Joop Snijder: Hoe zit dat allemaal ten opzichte van elkaar?

412
00:29:45,119 --> 00:29:46,319
Joop Snijder: Het wordt ook wel.

413
00:29:47,200 --> 00:29:47,840
Joop Snijder: Ja, toch?

414
00:29:47,839 --> 00:29:52,319
Joop Snijder: Waarbij de doorbraak van het hele ChatGPT was les is more.

415
00:29:52,319 --> 00:29:55,519
Joop Snijder: Ik kan gewoon praten, tenminste, typen.

416
00:29:56,160 --> 00:29:58,240
Joop Snijder: Het was een chat interface.

417
00:29:58,240 --> 00:30:00,720
Joop Snijder: En ik kan nu een agent mode aanzetten.

418
00:30:00,720 --> 00:30:02,640
Joop Snijder: Ik kan een deep research mode aanzetten.

419
00:30:02,639 --> 00:30:04,879
Joop Snijder: Nou, ik had andere opties al gezegd.

420
00:30:04,880 --> 00:30:12,640
Joop Snijder: Dat wordt voor leken wordt het steeds lastiger om de technologie om dan daar het maximale uit te halen.

421
00:30:12,639 --> 00:30:17,200
Niels Naglé: Ja, en het maximale uit te halen, maar dat ook nog op een veilige manier.

422
00:30:17,440 --> 00:30:20,799
Niels Naglé: Want ook die settings die moet je iedere keer weer even opzoeken.

423
00:30:20,799 --> 00:30:23,839
Niels Naglé: Die veranderen, de voorwaarden veranderen, nieuwe modellen komen.

424
00:30:23,839 --> 00:30:26,319
Niels Naglé: Er komen misschien weer nieuwe voorwaarden waarop modellen.

425
00:30:26,559 --> 00:30:28,240
Niels Naglé: Dus de hoeveelheid neemt toe.

426
00:30:28,240 --> 00:30:33,599
Niels Naglé: En we hebben al een information overload, maar ook op dit vlak zullen we dat zien toenemen.

427
00:30:33,839 --> 00:30:44,480
Niels Naglé: En moeten we elkaar helpen door met elkaar gesprekken te voeren en inderdaad kritisch te blijven waarom doen we wat we doen en hoe we dat doen om te voorkomen dat je daarin gaat verdrinken.

428
00:30:44,480 --> 00:30:46,079
Unknown: Precies.

429
00:30:46,639 --> 00:30:51,919
Joop Snijder: Ik bedenk in één keer, ik ben nog wat vergeten net bij die rol en functies.

430
00:30:51,920 --> 00:30:58,559
Joop Snijder: Want we hadden natuurlijk drie, waarvan we zeggen van die voorzagen we als het ware in 2023.

431
00:31:01,200 --> 00:31:02,720
Joop Snijder: En dan moet je bedenken.

432
00:31:03,200 --> 00:31:07,600
Joop Snijder: ChatGPT kwam uit in 30 november 2022.

433
00:31:08,160 --> 00:31:17,200
Joop Snijder: Dit was echt wel heel vroeg, dat we zeiden van wat wordt geraakt, wat hier niet tussen staat, is de software developer.

434
00:31:17,680 --> 00:31:22,159
Joop Snijder: En in 2023 konden we niet bevroeden.

435
00:31:22,160 --> 00:31:29,279
Joop Snijder: Welke impact deze technologie zou hebben op alles wat te maken heeft met een vorm van programmeren.

436
00:31:29,279 --> 00:31:31,679
Joop Snijder: Of dat nou whatever.

437
00:31:32,160 --> 00:31:40,960
Joop Snijder: En wat je in 2026 gaat zien, is dat die trend, die wordt alleen maar verder doorgezet.

438
00:31:40,960 --> 00:31:49,680
Joop Snijder: Dus we zitten nu al op het omslagpunt dat de machine soms beter kan programmeren dan de mens.

439
00:31:49,680 --> 00:32:04,079
Joop Snijder: En met beter bedoel ik soms ook gewoon vollediger in de zin van dat je nadenkt over security eisen, over non-functionals, over van alles en nog wat, waar je als mens constant aan moet denken, kan dat ding gewoon altijd mee.

440
00:32:04,720 --> 00:32:05,759
Joop Snijder: Standaard meenemen.

441
00:32:06,000 --> 00:32:10,879
Joop Snijder: Er komt er ook nog, natuurlijk komen er nog hallucinaties uit en verkeerde dingen en dat zit.

442
00:32:10,880 --> 00:32:20,240
Joop Snijder: Maar die ontwikkeling is veel harder gegaan dan dat wij dachten, dat we dachten van ja, maar wij als software ontwikkelaars.

443
00:32:24,319 --> 00:32:26,799
Joop Snijder: Ja, buitenschot, is denk ik het goede woord.

444
00:32:26,799 --> 00:32:28,800
Joop Snijder: En dat is helemaal niet zo gebleken.

445
00:32:28,799 --> 00:32:33,920
Joop Snijder: Dus misschien zijn er in 2026 ook wel andere beroepsgroepen.

446
00:32:33,920 --> 00:32:38,960
Joop Snijder: die toch wel geraakt gaan worden waarvan je nu denkt.

447
00:32:39,519 --> 00:32:40,080
Joop Snijder: Nog niet.

448
00:32:40,079 --> 00:32:40,799
Joop Snijder: Nog niet.

449
00:32:40,960 --> 00:32:42,639
Joop Snijder: En ik zou zo niet weten welke hoor.

450
00:32:42,639 --> 00:32:44,079
Joop Snijder: Dat kan ik niet opleppelen.

451
00:32:44,240 --> 00:32:52,080
Joop Snijder: Maar als we het hebben over hoe keken wij daar eigenlijk in 2023 tegen, hadden wij de blinde vlek van ons eigen werk.

452
00:32:52,079 --> 00:32:55,680
Niels Naglé: Ja, dus als luisteraar, kijk naar je eigen werkzaamheden.

453
00:32:55,680 --> 00:32:58,240
Niels Naglé: En zit je zelf niet ook in zo'n blinde vlek.

454
00:32:58,240 --> 00:33:04,319
Niels Naglé: En kijk in ieder geval naar wat zou het voor je kunnen betekenen, hoe zou je het kunnen inzetten en wat zou de impact daarvan kunnen zijn.

455
00:33:04,799 --> 00:33:07,839
Niels Naglé: En zowel bedreigingen, maar ook alsjeblieft de kansen.

456
00:33:07,839 --> 00:33:09,119
Niels Naglé: De positieve kant erop.

457
00:33:09,200 --> 00:33:14,160
Niels Naglé: Want ik denk in 2026 gaan we vaker ook het negatieve in het beeld krijgen.

458
00:33:14,480 --> 00:33:20,079
Niels Naglé: Vanwege de zaken die gaan plaatsvinden met agents, met de verwarring die ontstaat.

459
00:33:20,079 --> 00:33:21,519
Niels Naglé: Meer mensen die het gaan gebruiken.

460
00:33:21,519 --> 00:33:25,359
Niels Naglé: Dus het zal ook vaker leiden tot problematiek.

461
00:33:25,360 --> 00:33:27,359
Niels Naglé: Ethische vraagstukken.

462
00:33:27,360 --> 00:33:30,000
Niels Naglé: Waardoor er ook een negatieve kant van komen komen.

463
00:33:30,440 --> 00:33:40,679
Niels Naglé: Dus blijf alsjeblieft met elkaar in gesprek, elkaars perspectieven aan horen, vinden we dit iets met deze technologie op te lossen is, moeten we het juist niet gebruiken.

464
00:33:40,680 --> 00:33:47,320
Niels Naglé: En des te belangrijke in de 2026 om daar binnen het bedrijf, buiten de bedrijf, met elkaar over te blijven hebben.

465
00:33:47,319 --> 00:33:49,079
Unknown: Ja, zeker.

466
00:33:50,039 --> 00:33:52,519
Joop Snijder: En ik denk wat je ook ziet.

467
00:33:52,920 --> 00:34:03,799
Joop Snijder: Dat raakt je aan, is dat er ook nu een tegenbeweging al aan het komen is, dat mensen zeggen van ja, maar kijk, kijk nou eens goed naar deze technologie en willen we dit ook.

468
00:34:04,599 --> 00:34:12,920
Joop Snijder: Ik denk dat we de tegenbeweging ook nodig hebben om ervoor te zorgen dat je iedere keer wel overwogen besluiten neemt.

469
00:34:12,920 --> 00:34:14,599
Joop Snijder: Van zetten we de technologie in.

470
00:34:14,599 --> 00:34:16,120
Joop Snijder: Hoe zetten we het in?

471
00:34:16,119 --> 00:34:21,160
Joop Snijder: Hebben we daar vraagstukken rondom duurzaamheid, rondom ethiek.

472
00:34:21,480 --> 00:34:29,400
Joop Snijder: Maar ook is het gewoon de juiste technologie om in te zetten, doe je het om het te doen of is het echt handig.

473
00:34:29,719 --> 00:34:32,279
Joop Snijder: En ik denk dat dat wel hele goede vraagstukken zijn.

474
00:34:33,960 --> 00:34:36,760
Joop Snijder: Ik zie de tegenbeweging komen.

475
00:34:38,039 --> 00:34:42,759
Joop Snijder: Ik zit zelf natuurlijk iets aan de optimistische kant rondom rondom de vraagstuk.

476
00:34:42,760 --> 00:34:49,480
Joop Snijder: Maar ik denk voor de balans dat het heel goed is dat we in 2026 ook iets meer tegengeluid gaan horen.

477
00:34:49,800 --> 00:34:50,759
Joop Snijder: Neem dat gewoon mee.

478
00:34:50,760 --> 00:34:52,759
Joop Snijder: Neem dat mee in je afwegingen.

479
00:34:53,079 --> 00:34:55,000
Joop Snijder: Wat ga je hier nou mee doen?

480
00:34:55,639 --> 00:34:59,159
Niels Naglé: Ik blijf eigenlijk gewoon kritisch kritisch op van wat kost het.

481
00:34:59,159 --> 00:35:05,400
Niels Naglé: En kosten, is niet alleen de implementatie en het draaien, maar ook wat kost het om te trainen, wat kost het om te trainen.

482
00:35:05,400 --> 00:35:08,839
Niels Naglé: Neem het gehele plaatje mee in de afweging.

483
00:35:08,920 --> 00:35:13,799
Niels Naglé: Wil niet zeggen dat je niet moet gaan experimenteren, maar dan ga je bewust experimenteren.

484
00:35:13,800 --> 00:35:15,559
Niels Naglé: Dan kies je ervoor om te gaan leren.

485
00:35:15,559 --> 00:35:19,079
Niels Naglé: En misschien de technologie die er misschien niet helemaal bij past, of dat weet je nog niet.

486
00:35:19,079 --> 00:35:21,239
Niels Naglé: Da de keuze voor te maken, daar staan we zo in.

487
00:35:21,239 --> 00:35:22,920
Niels Naglé: We gaan het zo oplossen.

488
00:35:22,920 --> 00:35:27,079
Niels Naglé: Maar daarna na het experiment terugkijken wat heb ik ervan geleerd.

489
00:35:27,079 --> 00:35:28,759
Niels Naglé: Is dit een passende oplossing?

490
00:35:28,760 --> 00:35:32,199
Niels Naglé: Wat is de ethische wat is de duurzaamheid vraagstuk, wat is het kosten.

491
00:35:32,199 --> 00:35:35,239
Niels Naglé: En dan zowel operational cost als development cost.

492
00:35:35,239 --> 00:35:37,559
Niels Naglé: Dus als geheel de kosten bekijken.

493
00:35:37,559 --> 00:35:41,559
Niels Naglé: Want vaak wordt er gekeken naar developmentkosten, maar de runkosten zijn ook essentieel.

494
00:35:41,800 --> 00:35:43,640
Niels Naglé: Zeker met agents.

495
00:35:43,639 --> 00:35:48,680
Niels Naglé: En alle problematiek of uitdagingen die we gaan krijgen met meer gebruikers meer kosten.

496
00:35:48,679 --> 00:35:51,879
Niels Naglé: Dat zijn zaken waar we steeds vaker over moeten nadenken.

497
00:35:51,880 --> 00:35:59,479
Joop Snijder: Ja, en daar wil ik ook wel refereren aan de opname die we hebben gehad met Sietsen van de bron.

498
00:35:59,480 --> 00:36:01,480
Joop Snijder: Dat ziet hij heel veel van de bron.

499
00:36:01,800 --> 00:36:07,239
Joop Snijder: Die hebben het over soevereiniteit zijn zij heel erg aan het nadenken.

500
00:36:07,239 --> 00:36:15,640
Joop Snijder: En wat hij aangaf, en ik denk dat dat echt wel een hele goede tip is in dit geval rond al deze vraagstukken, is balans.

501
00:36:15,960 --> 00:36:23,559
Joop Snijder: waar zit de balans je hoeft niet te zeggen van ja, maar wij doen helemaal geen AI of we doen alles AI.

502
00:36:23,559 --> 00:36:26,679
Joop Snijder: Dat je zoekt naar waar past het.

503
00:36:27,000 --> 00:36:34,200
Joop Snijder: Hoe kunnen we het als het een duurzaamheidsvraagstuk is, kunnen we het dan wel inzetten, maar dan met kleinere modellen bijvoorbeeld.

504
00:36:35,800 --> 00:36:40,200
Joop Snijder: Misschien kan je zelf wel wat doen aan hoe je aan je stroom komt.

505
00:36:42,920 --> 00:36:48,759
Joop Snijder: Ik ben niet een voorstander van polarisatie te zeggen van je moet dit of laat dat.

506
00:36:48,760 --> 00:36:53,879
Joop Snijder: Maar dat je juist die balans, dat vond ik ook zo mooi, hoe zij naar die soevereiniteit kijken.

507
00:36:54,679 --> 00:36:57,639
Joop Snijder: Wat is op dit moment zinnig, wat kan.

508
00:36:57,960 --> 00:37:04,199
Joop Snijder: Natuurlijk, we willen soeverein zijn ten opzichte van big tech, maar we kunnen daar ook niet los van komen.

509
00:37:04,199 --> 00:37:05,799
Joop Snijder: Het is geen alles of niets verhaal.

510
00:37:06,920 --> 00:37:08,600
Joop Snijder: Het is niet dat je.

511
00:37:10,360 --> 00:37:15,559
Niels Naglé: En dat is bewust keuzes maken, afwegingen maken en die periodiek herzien.

512
00:37:15,719 --> 00:37:19,079
Niels Naglé: Want de verandering blijft doorgaan, en dat zal hier ook zijn.

513
00:37:19,079 --> 00:37:23,399
Niels Naglé: Dus ook zorgen dat je er vastlegt waarom heb ik het besluit genomen.

514
00:37:23,719 --> 00:37:28,359
Niels Naglé: Wat waren toen de afwegingen, wat was toen de stand van de technologie, waarom hebben we het gekozen.

515
00:37:28,360 --> 00:37:30,440
Niels Naglé: En dan is dat de keuze die gemaakt is op dat moment.

516
00:37:30,440 --> 00:37:31,799
Niels Naglé: Dan kan je daarop gaan varen.

517
00:37:31,800 --> 00:37:34,519
Niels Naglé: Maar als daarna na drie maanden.

518
00:37:35,559 --> 00:37:38,439
Niels Naglé: Ja, maar soms na drie maanden verandert de wereld al op stukken.

519
00:37:38,440 --> 00:37:39,639
Niels Naglé: Dan kan je dat heroverwegen.

520
00:37:39,639 --> 00:37:42,679
Niels Naglé: Want dan is er nieuwe inzicht om daar weer opnieuw naar die keuze te gaan kijken.

521
00:37:42,679 --> 00:37:45,719
Niels Naglé: En ik denk dat we die flexibiliteit ook met elkaar moeten gaan inbouwen.

522
00:37:45,719 --> 00:37:47,399
Niels Naglé: Nu is het vaak, nee, we hebben er besloten.

523
00:37:47,400 --> 00:37:52,920
Niels Naglé: En ik ben ook tegen om ieder besluit telkens maar weer opnieuw te openen en die discussie weer te voeren, want we zijn altijd heel goed in.

524
00:37:53,159 --> 00:37:58,839
Niels Naglé: Maar als er nieuwe ontwikkelingen zijn, moeten we ook wel durven die keuze weer op tafel te leggen.

525
00:37:58,840 --> 00:38:01,719
Niels Naglé: En ik hoop dat we dat ook in 2026 blijven doen.

526
00:38:01,720 --> 00:38:04,200
Niels Naglé: Dat we dus blijven herzien wanneer nodig.

527
00:38:04,199 --> 00:38:05,720
Niels Naglé: En niet om te herzien.

528
00:38:06,440 --> 00:38:12,199
Joop Snijder: En wat mij betreft, zeg maar, de laatste voorspelling, en die is niet zo heel erg moeilijk.

529
00:38:12,199 --> 00:38:14,799
Joop Snijder: En dat is vanwege alles wat de geopolitiek gebeurt.

530
00:38:14,679 --> 00:38:18,480
Joop Snijder: Dus dat er in 2026 nog meer gesproken wordt over soevereiniteit.

531
00:38:18,880 --> 00:38:23,679
Joop Snijder: Dus dat er echt meer en beter nagedacht wordt met AI.

532
00:38:24,320 --> 00:38:27,039
Joop Snijder: Bij wie nemen we dat af, hoe doen we dat.

533
00:38:27,360 --> 00:38:32,080
Joop Snijder: Moeten we misschien naar open source modellen die we zelf kunnen hosten.

534
00:38:32,559 --> 00:38:36,879
Joop Snijder: Maar dat zou ook kunnen zijn dat je zegt van we gaan wel in zee.

535
00:38:36,880 --> 00:38:41,440
Joop Snijder: met een van de van de leveranciers van Big Tech, maar we hebben wel een exit strategie.

536
00:38:41,760 --> 00:38:43,599
Joop Snijder: Dat je daarover nadenkt.

537
00:38:43,920 --> 00:38:47,039
Joop Snijder: Maar de hele discussie rondom soevereiniteit.

538
00:38:47,039 --> 00:38:49,439
Joop Snijder: En ik denk dat dat ook gewoon heel zinvol is.

539
00:38:50,800 --> 00:38:53,599
Joop Snijder: Dat is niet een hele moeilijke voorspelling voor de aankomend jaar.

540
00:39:00,079 --> 00:39:02,320
Niels Naglé: Ik wil hem wel nog wat breder trekken, is dat het niet alleen maar open source modellen zijn en de AI-soevereiniteit.

541
00:39:00,079 --> 00:39:02,320
Niels Naglé: Maar ik denk dat ook datasoevereiniteit.

542
00:39:02,320 --> 00:39:11,599
Niels Naglé: Welke data wordt ervoor gebruikt voor de AI-oplossingen voor je eigen machine learning modellen, is dat het belang van datasoevereiniteit, beschikbaarheid en wat gebeurt ermee.

543
00:39:11,599 --> 00:39:13,600
Niels Naglé: Dat dat enorm zal toenemen.

544
00:39:13,599 --> 00:39:14,960
Niels Naglé: Waar gaat mijn data heen?

545
00:39:14,960 --> 00:39:20,480
Niels Naglé: Met welk doel gaat het erheen, dat we daar een stukje governance, een stukje afspraken, dataleveringsovereenkomst.

546
00:39:20,480 --> 00:39:26,559
Niels Naglé: Ik denk dat dat soort zaken enorm gaan toenemen in 2026, omdat we meer bewust worden hoe de data gebruikt wordt.

547
00:39:27,679 --> 00:39:31,440
Joop Snijder: En vaak ligt dit er al, maar dat zal denk ik veel meer aangescherpt gaan worden.

548
00:39:31,440 --> 00:39:32,480
Niels Naglé: Dat denk ik ook.

549
00:39:32,800 --> 00:39:34,160
Joop Snijder: Nou, mooi.

550
00:39:34,400 --> 00:39:39,679
Joop Snijder: Dan denk ik dat we volgens mij hebben een hele lijst aan voorspellingen.

551
00:39:40,239 --> 00:39:45,120
Joop Snijder: Volgend jaar eind volgend jaar maar eens even kijken wat hiervan uitgekomen is.

552
00:39:46,960 --> 00:39:52,720
Joop Snijder: En ik ben benieuwd van welke voorspellingen jij als luisteraar ziet of denkt.

553
00:39:52,719 --> 00:39:54,480
Joop Snijder: Deel dat met ons op de socials.

554
00:39:54,480 --> 00:39:59,679
Joop Snijder: Dat is wel heel erg leuk, weet je, kunnen we eens even volgend jaar terugkijken van wat is er nou van waar geworden.

555
00:40:01,840 --> 00:40:04,159
Joop Snijder: Leuk dat je weer luisterde naar deze aflevering.

556
00:40:04,159 --> 00:40:08,719
Joop Snijder: Vergeet je niet te abonneren via je favoriete podcast, dan mis je geen aflevering.

557
00:40:10,159 --> 00:40:12,319
Joop Snijder: Eigenlijk wil ik zeggen tot volgend jaar, maar dat moet je niet doen.

558
00:40:12,320 --> 00:40:14,159
Joop Snijder: Je moet gewoon tot de volgende aflevering.

559
00:40:15,440 --> 00:40:17,039
Niels Naglé: Tot de volgende keer.