AIToday Live

S07E81 - Waarom de techniek niet de bottleneck is bij AI-implementaties met Sophia Zitman

Aigency by Info Support Season 7 Episode 81

Sophia Zitman, Director of AI Projects bij KickstartAI, was te gast in een recente aflevering van AIToday Live. Ze deelde haar ervaringen met AI-implementaties bij grote bedrijven en non-profits zoals de Voedselbank en het Erasmus MC. 

KickstartAI, opgericht door Albert Heijn Delhaize, KLM, ING en NS, richt zich op het versnellen van AI-adoptie in Nederland. Sophia benadrukte het verschil tussen AI-projecten bij corporates en non-profits, waarbij flexibiliteit en pragmatisme vaak kenmerkend zijn voor kleinere organisaties.

Een succesvol voorbeeld is het project bij de Voedselbank, waar AI-voorspellingen helpen bij het efficiënter bereiken van hulpbehoevenden. Sophia noemde entrepreneurship, implementatie-ervaring en vertrouwen als cruciale succesfactoren voor AI-projecten.

Onderwerpen

  • Succesvolle AI-implementaties
  • Verschillen tussen AI-implementaties bij corporates en non-profits
  • Projecten bij de Voedselbank en andere organisaties
  • Succesfactoren voor AI-implementaties
  • Toekomst van AI en de ontwikkeling naar generatieve AI

Links

Genoemde entiteiten: Albert Heijn Delhaize - KLM - ING - NS - KickstartAi - Voedselbank - Erasmus Medisch Centrum - Ampere - Bol.com

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:05,280
We spreken Sophia Zitman, Director of AI Projects bij Kickstart.ai.

2
00:00:05,280 --> 00:00:11,440
Sophia deelt haar ervaringen met AI-implementaties van A tot Z, van corporates tot non-profits

3
00:00:11,440 --> 00:00:14,080
zoals de Voedselbank en het Erasmus Medisch Centrum.

4
00:00:14,080 --> 00:00:20,200
Ze legt uit waarom de techniek zelden de bottleneck is en waarom een can-do-mentaliteit het verschil

5
00:00:20,200 --> 00:00:23,080
maakt tussen succesvolle en mislukte AI-trajecten.

6
00:00:25,020 --> 00:00:27,840
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

7
00:00:29,140 --> 00:00:33,560
Vandaag, nou niet in mijn eentje, want uiteraard hebben we een gast, maar in ieder geval zonder Niels.

8
00:00:34,440 --> 00:00:36,720
Die kon er niet bij zijn vanwege omstandigheden.

9
00:00:37,100 --> 00:00:40,600
Maar gelukkig de gast in de studio, Sophia Zitman.

10
00:00:41,180 --> 00:00:43,420
Sophia, ontzettend fijn dat je hier wilde komen.

11
00:00:44,300 --> 00:00:46,600
Zou je jezelf eerst willen voorstellen aan de luisteraar?

12
00:00:46,840 --> 00:00:52,420
Zeker. Sophia Zitman, zoals je zelf al zei, director of AI projects bij Kickstart.ai.

13
00:00:53,600 --> 00:00:54,240
Een mooie titel.

14
00:00:54,670 --> 00:00:56,080
Wat dat eigenlijk betekent.

15
00:00:56,190 --> 00:00:58,380
Wij van Kickstart.ai zijn een stichting.

16
00:00:58,560 --> 00:01:00,440
Opgericht door een aantal grote corporates in Nederland.

17
00:01:00,860 --> 00:01:03,160
Zijn de AH Delhaize, KLM, ING en NS.

18
00:01:04,000 --> 00:01:06,800
Met als missie de adoptie van AI in Nederland versnellen.

19
00:01:07,340 --> 00:01:09,000
En dat doen we op verschillende manieren.

20
00:01:09,240 --> 00:01:14,640
En één daarvan zijn echt van A tot Z implementatie en ontwikkeltrajecten van AI.

21
00:01:15,519 --> 00:01:18,980
En dat heb ik samen met het team eigenlijk die propositie opgezet.

22
00:01:19,600 --> 00:01:21,160
En dat is ook wat ik nu doe.

23
00:01:21,380 --> 00:01:24,760
Dus ook eindverantwoordelijk voor het succes van al die trajecten bij onze partners.

24
00:01:24,890 --> 00:01:26,600
Oh ja, wat een mooie functie.

25
00:01:27,300 --> 00:01:28,400
Zeker, heel vet om te doen.

26
00:01:28,510 --> 00:01:31,520
Ja, en je zegt het is opgericht door corporate.

27
00:01:33,040 --> 00:01:34,620
Wat was de achterliggende reden dan?

28
00:01:35,440 --> 00:01:40,420
Nou, ik denk er zat een besef bij al die bedrijven.

29
00:01:40,450 --> 00:01:43,440
En ik denk dat het ook wel breder gedragen werd.

30
00:01:43,890 --> 00:01:45,520
Van hey, daar zit echt wat in.

31
00:01:45,620 --> 00:01:48,480
Ik denk zeven jaar geleden zijn eigenlijk die gesprekken al begonnen.

32
00:01:49,340 --> 00:01:50,460
Van hey, daar moeten we echt wat mee.

33
00:01:50,600 --> 00:01:54,460
We weten niet precies hoe en wat, maar we zijn sterker als we onze krachten bundelen.

34
00:01:55,040 --> 00:01:55,900
Dus laten we dat ook doen.

35
00:01:56,140 --> 00:01:59,200
En op die manier kunnen we verder wat teruggeven aan Nederland.

36
00:01:59,330 --> 00:02:02,600
Dus niet alleen zelf de bedrijven die hierachter zitten.

37
00:02:03,140 --> 00:02:05,940
Maar ook voor een breder maatschappelijk doel ons inzetten.

38
00:02:06,460 --> 00:02:09,900
En dat is eigenlijk hoe ze toen de stichting Kixer de Hai hebben opgericht.

39
00:02:10,620 --> 00:02:13,000
Dus jullie werken niet alleen maar voor de oprichters?

40
00:02:13,320 --> 00:02:13,920
Nee, zeker niet.

41
00:02:14,080 --> 00:02:16,240
We doen nog heel veel daar omheen.

42
00:02:16,410 --> 00:02:19,380
Een voorbeeld van is dat we heel lang met Voedselbank hebben samengewerkt.

43
00:02:19,620 --> 00:02:23,640
Voor het Erasmus MC, het ziekenhuis in Rotterdam, hebben we bijvoorbeeld ook een project gedaan.

44
00:02:23,900 --> 00:02:26,780
En zo zijn er nog veel meer samenwerkingen met andere bedrijven.

45
00:02:27,060 --> 00:02:29,280
Interessant. Dus ook voor het non-profit in die zin?

46
00:02:29,680 --> 00:02:33,180
Ja, zeker. Een heel groot maatschappelijk doel zit daarbij.

47
00:02:33,880 --> 00:02:42,780
Zou je verschil kunnen vertellen over wat je ziet qua AI-implementatie in de corporates waar je komt en in die non-profit organisaties?

48
00:02:43,880 --> 00:02:48,080
Ja, zeker. Er zit sowieso denk ik wel, er zit ook een stukje overlap in.

49
00:02:48,280 --> 00:02:50,060
En ik denk dat is mooi om te beginnen.

50
00:02:50,860 --> 00:02:54,020
Alle organisaties zien het nut en de urgentie.

51
00:02:54,430 --> 00:02:55,820
Dus iedereen wil er wat mee.

52
00:02:56,460 --> 00:02:58,040
Ik denk waar grote verschillen in zitten.

53
00:02:58,130 --> 00:03:03,280
Is dat je ziet dat die grotere corporates al jaren hebben gehad om te investeren.

54
00:03:03,600 --> 00:03:05,600
In de techniek en de mensen.

55
00:03:06,740 --> 00:03:07,980
Dus daar staan al teams.

56
00:03:08,090 --> 00:03:10,600
Daar zit al meer ervaring in.

57
00:03:10,950 --> 00:03:13,560
En vaak bij de wat kleinere bedrijven of non-profits.

58
00:03:13,770 --> 00:03:15,480
Die lopen daar in die zin nog wat in achter.

59
00:03:16,980 --> 00:03:19,160
Maar dat zijn vaak in die zin ook wat kleinere organisaties.

60
00:03:19,320 --> 00:03:22,200
Dus als we dan binnenkomen, kunnen we alsnog daar heel veel mee doen.

61
00:03:22,380 --> 00:03:23,620
Omdat je gewoon wat flexibeler bent.

62
00:03:26,059 --> 00:03:28,200
Maar het type project wordt soms wel wat anders.

63
00:03:28,360 --> 00:03:30,140
Het is wat meer greenfield, zoals we dat soms noemen.

64
00:03:30,200 --> 00:03:38,080
Oh ja. En waar merk je dat aan, zeg maar, wat er dan structureel anders gaat?

65
00:03:40,840 --> 00:03:43,340
Nou ja, ik denk in structureel anders.

66
00:03:43,880 --> 00:03:47,620
Als wij een project beginnen, dan beginnen we eigenlijk altijd bij het bedrijf zelf.

67
00:03:47,780 --> 00:03:50,300
Dus we kijken nog helemaal niet, in eerste instantie niet, naar de techniek.

68
00:03:50,380 --> 00:03:53,760
Ik geloof niet in een techniek push als je echt duurzame impact wil hebben.

69
00:03:54,640 --> 00:03:57,660
Dus we kijken echt, waar wil zo'n bedrijf naartoe?

70
00:03:57,980 --> 00:04:02,480
Of naar zo'n corporate of een non-profit of andere organisaties waar we mee samenwerken.

71
00:04:02,940 --> 00:04:05,880
En dan ga je kijken, oké, wat is je visie? Waar wil je naartoe?

72
00:04:06,000 --> 00:04:09,160
En dan kan je dat terug gaan brengen naar, oké, maar wat gebeurt er dan nu op de vloer?

73
00:04:09,260 --> 00:04:10,700
En waar zitten dan je echte pijnpunten?

74
00:04:11,280 --> 00:04:12,500
En vanuit daar kan je dan verder.

75
00:04:13,080 --> 00:04:16,399
En in zo'n corporate heb je vaak gewoon veel meer om te navigeren.

76
00:04:16,440 --> 00:04:18,320
Want het is veel groter, veel meer silo's.

77
00:04:18,440 --> 00:04:22,660
Veel meer soms incentives die een beetje tegen elkaar ingaan.

78
00:04:22,800 --> 00:04:25,140
Of toch ergens anders liggen.

79
00:04:25,640 --> 00:04:31,240
En bij zo'n kleine organisatie of zo'n non-profit zitten vaak toch meer mensen met een soort passie.

80
00:04:31,400 --> 00:04:34,140
Met heel veel liefde voor het werk wat ze doen.

81
00:04:35,240 --> 00:04:37,000
En die willen gewoon heel graag.

82
00:04:37,040 --> 00:04:38,200
En die zijn wat pragmatischer.

83
00:04:38,200 --> 00:04:41,159
Maar die zijn vaak wat minder overstijgend in hoe ze dat aanpakken.

84
00:04:41,760 --> 00:04:46,160
Dus waar je ziet dat we in zo'n corporate toch wat meer de organisatie aan het navigeren zijn.

85
00:04:47,400 --> 00:04:50,700
Eigenlijk dat we die non-profits vooral helpen.

86
00:04:51,200 --> 00:04:53,460
Met echt kijken, oké jongens, dit is een probleem.

87
00:04:53,580 --> 00:04:54,280
Even een stapje terug.

88
00:04:55,020 --> 00:04:57,260
Hoe kunnen we dit echt op een duurzame manier efficiënter maken?

89
00:04:58,100 --> 00:04:58,440
Mooi.

90
00:04:59,060 --> 00:05:03,760
Ik weet niet of het mag hoor, maar zou je wat kunnen vertellen over de case van de voedselbank?

91
00:05:04,380 --> 00:05:04,940
Ja, zeker.

92
00:05:06,740 --> 00:05:11,040
Eigenlijk de voedselbank, iedereen weet wat ze doen neem ik aan.

93
00:05:11,620 --> 00:05:13,280
en zij dachten op een gegeven moment

94
00:05:13,380 --> 00:05:15,260
ze hebben zelf een project opgericht

95
00:05:15,600 --> 00:05:16,160
onder de radar

96
00:05:16,980 --> 00:05:18,860
waarin ze eigenlijk zeggen, er zijn heel veel mensen die

97
00:05:19,520 --> 00:05:21,100
recht hebben op hulp, die wij kunnen helpen

98
00:05:21,140 --> 00:05:23,000
die wij willen helpen, maar die we nu

99
00:05:23,140 --> 00:05:24,820
op een of andere manier niet bereiken of die

100
00:05:25,060 --> 00:05:26,040
niet bij ons terecht komen

101
00:05:27,760 --> 00:05:28,940
en toen zijn wij

102
00:05:28,940 --> 00:05:31,040
gaan kijken, waar zit dat

103
00:05:31,220 --> 00:05:33,180
probleem nou in en waar kunnen wij daarin helpen

104
00:05:33,720 --> 00:05:34,860
en een van de dingen die

105
00:05:35,320 --> 00:05:36,820
binnen dat project zijn gebeurd

106
00:05:37,060 --> 00:05:39,080
is dat de Voedselbank heeft zelf gekeken

107
00:05:39,240 --> 00:05:41,040
een soort toolbox gemaakt van

108
00:05:42,280 --> 00:05:45,520
Hoe moet je bepaald soort type mensen nou bereiken?

109
00:05:45,540 --> 00:05:49,300
Die hebben eigenlijk profielen gemaakt van mensen die ze kunnen helpen.

110
00:05:49,840 --> 00:05:52,339
Je kan je voorstellen dat voor een alleenstaande ouder in de bijstand...

111
00:05:53,020 --> 00:05:58,339
die moet je op een andere manier benaderen dan misschien iemand...

112
00:06:00,500 --> 00:06:02,820
een bejaard persoon die ergens anders zit.

113
00:06:02,820 --> 00:06:04,620
Dus die hebben andere contactpunten.

114
00:06:05,340 --> 00:06:08,999
En wat wij toen zijn gaan doen samen met gegevens die de Voedselbank zelf heeft...

115
00:06:09,020 --> 00:06:15,200
En publieke data vanuit het CBS hebben inzichtelijk gemaakt waar die mensen nou eigenlijk zitten in Nederland.

116
00:06:15,440 --> 00:06:17,460
Welke postcodegebieden en waar je dan naartoe moet.

117
00:06:18,540 --> 00:06:22,900
En vervolgens kan je zelfs gaan zeggen, we gaan voorspellen wat dat in de toekomst gaat doen.

118
00:06:22,980 --> 00:06:27,480
Dus we zien nu waar je nu mensen mist en welke mensen je wist.

119
00:06:27,960 --> 00:06:32,560
En in de toekomst kan je dan ook gaan kijken van oké, maar waar gaat dat zich naartoe bewegen?

120
00:06:33,100 --> 00:06:37,600
Dus dan kan je de actie die de voedselbank nu daarop zou hebben is zeggen van,

121
00:06:38,200 --> 00:06:39,700
dit is waar we gaan targeten.

122
00:06:39,780 --> 00:06:41,400
Dit is waar we het meest efficiënt kunnen targeten.

123
00:06:41,900 --> 00:06:45,360
Maar op langere termijn kan je ook over grotere stappen gaan denken.

124
00:06:45,460 --> 00:06:48,180
Als waar moet je bijvoorbeeld een nieuwe locatie of een nieuw punt openen.

125
00:06:48,500 --> 00:06:49,580
Oh, op die manier ja.

126
00:06:50,340 --> 00:06:50,740
Wat mooi.

127
00:06:51,720 --> 00:06:56,080
Ja, dus dat was ook zeker een leuk project om te doen.

128
00:06:56,440 --> 00:06:59,180
En het duur van zo'n project, kan je daar iets over zeggen?

129
00:06:59,700 --> 00:07:01,120
Ja, dat verschilt.

130
00:07:02,180 --> 00:07:07,480
Ik denk bij de grote corporate zitten we vaak rond anderhalf jaar.

131
00:07:07,700 --> 00:07:10,520
Dan denk ik dat we nog steeds vrij snel zijn als je van A tot Z gaat.

132
00:07:11,250 --> 00:07:12,800
Maar dat is ook waarvoor we zijn.

133
00:07:12,960 --> 00:07:14,600
Echt die accelerator, het echt sneller doen.

134
00:07:16,020 --> 00:07:17,180
Veel doelgerichter ook vaak.

135
00:07:20,060 --> 00:07:22,060
Maar soms is het ook korter. Het kan ook korter.

136
00:07:22,150 --> 00:07:24,080
Ik heb bijvoorbeeld een project bij het Erasmus MC.

137
00:07:24,920 --> 00:07:26,740
Dat is in negen maanden hebben we van A tot Z gedaan.

138
00:07:27,380 --> 00:07:31,720
En ik heb ook een keer een project gedaan samen met het team voor Ampere.

139
00:07:31,880 --> 00:07:33,160
Dat is een dochteronderneming van Bol.

140
00:07:34,320 --> 00:07:35,340
Die zit in de logistiek.

141
00:07:35,700 --> 00:07:39,720
En daar hebben we het in iets meer dan een half jaar van A tot Z gedaan.

142
00:07:40,150 --> 00:07:43,440
Dus het kan heel snel als je echt iets goeds te pakken hebt.

143
00:07:43,760 --> 00:07:46,260
Maar dat is toch nog best wel, we hebben het over maanden.

144
00:07:46,630 --> 00:07:55,400
Ik denk dat er best wel bedrijven en ondernemers zijn die denken dat een AI traject nu supersnel kan.

145
00:07:55,700 --> 00:07:59,880
Vanwege alles wat je eventueel in de media ziet of wat je op social media ziet.

146
00:08:00,540 --> 00:08:06,900
Wat maakt het nou dat het van begin tot eind eigenlijk wel maanden, misschien wel anderhalf jaar kost?

147
00:08:08,180 --> 00:08:16,100
Ik denk dat het bouwen van de AI vaak, dat kost het minste tijd.

148
00:08:17,420 --> 00:08:19,240
En dat kan inderdaad heel snel.

149
00:08:19,320 --> 00:08:21,460
Dus in die zin klopt dat sentiment helemaal.

150
00:08:22,220 --> 00:08:24,920
Alleen dan heb je het nog niet gebruikt.

151
00:08:25,000 --> 00:08:28,780
Dan staat het nog niet in je bedrijf en heb ook niet per se het goede aangepakt.

152
00:08:29,280 --> 00:08:35,539
Dus wat wij echt in elk traject doen, is dat we in het begin echt heel veel tijd nemen om echt zeker te weten,

153
00:08:36,110 --> 00:08:38,159
zijn we nou het goede ding aan het oplossen?

154
00:08:38,320 --> 00:08:43,799
Want iedereen kan, je kan heel makkelijk inderdaad iets van een modelletje importeren.

155
00:08:43,860 --> 00:08:45,860
Zeggen, dit zou potentieel, whatever kunnen.

156
00:08:46,840 --> 00:08:49,040
Maar wij gaan echt voor die gerealiseerde impact.

157
00:08:49,250 --> 00:08:50,940
Dat is echt onze North Star.

158
00:08:51,010 --> 00:08:53,340
Je wil gewoon dat het rendeert, je wil dat het oplevert.

159
00:08:54,140 --> 00:08:58,280
En dat gebeurt alleen als je echt iets maakt waar echt behoefte aan is.

160
00:08:58,799 --> 00:09:00,520
En wat mensen ook echt willen gebruiken.

161
00:09:01,480 --> 00:09:02,720
En wat je gewoon heel vaak ziet.

162
00:09:02,880 --> 00:09:04,900
Is dat gewoon om het idee van.

163
00:09:05,020 --> 00:09:05,760
Dit klinkt vet.

164
00:09:05,809 --> 00:09:06,820
Of dit is leuk.

165
00:09:06,980 --> 00:09:07,980
Of dit is een nieuwe technologie.

166
00:09:08,050 --> 00:09:08,900
Dus er moet wat mee.

167
00:09:09,440 --> 00:09:10,720
Dan wordt er een project opgestart.

168
00:09:10,750 --> 00:09:12,540
Waar eigenlijk niet de grote businesswaarde ligt.

169
00:09:13,020 --> 00:09:14,180
Of dan wordt er vergeten.

170
00:09:14,180 --> 00:09:15,480
Hoe dat eigenlijk in de workflow.

171
00:09:15,570 --> 00:09:17,960
Van een uiteindelijke gebruiker moet passen.

172
00:09:18,780 --> 00:09:19,940
Dus daar staan we in het begin.

173
00:09:20,680 --> 00:09:22,000
Echt heel stevig bij stil.

174
00:09:22,480 --> 00:09:23,700
Echt van strategisch niveau.

175
00:09:24,040 --> 00:09:24,460
Tot targets.

176
00:09:24,740 --> 00:09:25,860
Tot gewoon acties.

177
00:09:26,140 --> 00:09:27,080
Taken die mensen hebben.

178
00:09:28,600 --> 00:09:31,000
En vervolgens kan je natuurlijk die AI maken.

179
00:09:31,090 --> 00:09:32,940
Dat kan over het algemeen relatief snel.

180
00:09:33,620 --> 00:09:37,640
Maar het vervolgens implementeren in IT-architectuur duurt vaak al wat langer.

181
00:09:37,740 --> 00:09:39,940
Zeker als zo'n bedrijf groter wordt.

182
00:09:41,320 --> 00:09:43,160
Dan heb je gewoon van alles om te navigeren.

183
00:09:43,460 --> 00:09:44,640
Moet met allerlei dingen praten.

184
00:09:44,720 --> 00:09:45,600
Moet compliant zijn.

185
00:09:46,680 --> 00:09:47,920
Dat kost gewoon tijd.

186
00:09:48,700 --> 00:09:51,020
En wat ook gewoon een hele grote is.

187
00:09:51,110 --> 00:09:53,800
Is uiteindelijk gewoon de adoptie van mensen zelf.

188
00:09:53,980 --> 00:09:55,300
Kijk, je wil uiteindelijk verbeteren.

189
00:09:55,410 --> 00:09:56,700
Maar verbeteren is veranderen.

190
00:09:56,880 --> 00:09:58,200
Veranderen is best wel lastig.

191
00:09:59,320 --> 00:10:01,700
En dat is ook gewoon iets waar je de tijd voor moet nemen.

192
00:10:01,800 --> 00:10:02,500
Wat je goed moet doen.

193
00:10:03,320 --> 00:10:05,400
En wat ook goed moet landen.

194
00:10:06,200 --> 00:10:11,720
Ik zie het heel vaak alsof je toch een soort werknemer of iets toevoegt.

195
00:10:13,300 --> 00:10:16,440
En als jij iemand aanneemt, die moet je ook inwerken bij wijze van spreken.

196
00:10:16,510 --> 00:10:18,120
En die moet ook de collega's leren kennen.

197
00:10:18,560 --> 00:10:19,540
En noem maar op.

198
00:10:19,720 --> 00:10:22,680
Dus als je dat eigenlijk als dat hele holistische pakket pakt.

199
00:10:23,020 --> 00:10:25,740
Ja, dan ben je gewoon wat langer bezig dan alleen het bouwen van zo'n model.

200
00:10:26,280 --> 00:10:27,240
Ja, heel herkenbaar hoor.

201
00:10:27,500 --> 00:10:27,560
Ja.

202
00:10:27,660 --> 00:10:35,300
Ja, en je zei in je introductie dat je verantwoordelijk bent voor het succes van de implementaties.

203
00:10:37,040 --> 00:10:38,740
Wanneer is iets een succes?

204
00:10:39,640 --> 00:10:44,020
Voor mij is dat echt als er gerealiseerde businesswaarde op een manier is.

205
00:10:44,020 --> 00:10:48,160
Dus van tevoren kijken we echt heel erg van, oké, wat is het probleem dat we willen oplossen?

206
00:10:49,740 --> 00:10:53,600
Als je bijvoorbeeld het project van Ampere, de logistieke tak van Bol, pakt.

207
00:10:54,220 --> 00:10:55,639
Zij hebben heel veel duurzaamheidstargets.

208
00:10:55,940 --> 00:10:58,340
targets. Dus we hebben ook een business case uitgerekend

209
00:10:58,560 --> 00:11:00,020
op CO2 reductie.

210
00:11:00,580 --> 00:11:02,040
Het is voor mij een succes

211
00:11:02,200 --> 00:11:03,840
als dat ding in MOLI staat

212
00:11:03,920 --> 00:11:06,260
en je komt na een half jaar terug, dat je aantoonbaar

213
00:11:06,420 --> 00:11:07,640
hebt bijgedragen aan die

214
00:11:07,980 --> 00:11:08,660
CO2 reductie.

215
00:11:10,420 --> 00:11:12,080
Dan is het voor mij een succes.

216
00:11:13,400 --> 00:11:13,800
Want dan

217
00:11:13,960 --> 00:11:15,880
heeft het echt zijn doel gediend en dan heeft het echt

218
00:11:16,859 --> 00:11:17,260
gefunctioneerd.

219
00:11:17,560 --> 00:11:19,800
Ja, precies. Maar dat betekent ook dat je inderdaad

220
00:11:19,880 --> 00:11:21,660
je zegt gewoon in dat

221
00:11:21,760 --> 00:11:23,520
voortraject leg je dit soort dingen vast.

222
00:11:23,980 --> 00:11:25,900
Leg je ook dus je KPIs

223
00:11:25,920 --> 00:11:27,640
leg je vast waar je naar

224
00:11:28,260 --> 00:11:29,440
streeft. Ja, zeker.

225
00:11:32,580 --> 00:11:33,060
Zou je

226
00:11:34,290 --> 00:11:35,340
misschien iets van drie

227
00:11:36,539 --> 00:11:37,800
succesfactoren naast dit

228
00:11:38,240 --> 00:11:39,800
nog kunnen noemen van wat het

229
00:11:40,020 --> 00:11:41,820
verschil maakt tussen een traject

230
00:11:42,220 --> 00:11:43,160
wat uiteindelijk

231
00:11:43,860 --> 00:11:46,000
moeilijk loopt ten opzichte

232
00:11:46,000 --> 00:11:46,900
van een succesvol traject?

233
00:11:48,200 --> 00:11:49,880
Ik denk succesvolle trajecten kunnen soms

234
00:11:49,880 --> 00:11:51,400
ook lastig lopen. Zeker.

235
00:11:51,690 --> 00:11:54,140
Ik denk dat ieder traject uiteindelijk zo zijn uitdagingen

236
00:11:54,220 --> 00:11:55,780
kent. Ja, zeker.

237
00:11:55,840 --> 00:12:00,680
Ik denk, ja, dus één is een beetje dat, wat ik net al zei, heel goed stilstaan.

238
00:12:00,720 --> 00:12:03,900
Maar wat je nou aan het doen bent, ik zie dat vaak als iets entrepreneurials.

239
00:12:07,000 --> 00:12:08,040
Dat is echt een ding.

240
00:12:09,460 --> 00:12:12,760
En wat ook, denk ik, de grote drijf hier aan die projecten is,

241
00:12:12,760 --> 00:12:15,260
die wij hebben in tegenstelling tot hoe het vaak anders gaat,

242
00:12:15,440 --> 00:12:21,660
dat je bijvoorbeeld met een innovatieafdeling of een standaard consultancyclub werkt,

243
00:12:22,180 --> 00:12:25,720
is die hebben niet per se verantwoordelijkheid over het eindresultaat.

244
00:12:26,140 --> 00:12:27,700
maar voor subresultaten.

245
00:12:27,860 --> 00:12:29,880
Dat is op een bepaald momentje natuurlijk heel logisch,

246
00:12:29,880 --> 00:12:31,980
want je moet veel doen, je moet veel overbruggen.

247
00:12:33,640 --> 00:12:37,600
Maar echt gewoon puur kunnen sturen op gerealiseerde impact,

248
00:12:38,420 --> 00:12:41,260
dat is echt die Noordstar en echt die driver.

249
00:12:41,350 --> 00:12:42,960
Want dan blijf je ook in elke keuze,

250
00:12:43,720 --> 00:12:45,320
als er iets moeilijks weer opkomt,

251
00:12:45,780 --> 00:12:47,440
kan je altijd je keuze weer baseren op,

252
00:12:47,540 --> 00:12:50,820
ga dit me verder brengen bij dit gerealiseerde resultaat,

253
00:12:50,880 --> 00:12:52,160
wat uiteindelijk is wat je echt wil.

254
00:12:53,820 --> 00:12:58,360
Dus dat is denk ik echt een van de driving forces die erachter zit.

255
00:12:58,960 --> 00:13:03,840
En dat klinkt misschien heel evident, maar je ziet toch heel vaak dat het niet zo is.

256
00:13:05,460 --> 00:13:06,620
Hoe ga je daar dan mee om?

257
00:13:07,030 --> 00:13:13,620
Ik had laatst ook, zat ik bij een bedrijf en er zaten meerdere directieleden.

258
00:13:13,790 --> 00:13:18,360
En ik vroeg zeg maar, wat zijn jullie doelstellingen voor de aankomende periode?

259
00:13:19,060 --> 00:13:20,880
En onder de streep kwam er eigenlijk niks uit.

260
00:13:21,900 --> 00:13:23,060
Hoe pak jij dat dan?

261
00:13:24,880 --> 00:13:25,840
Nou ja, uiteindelijk

262
00:13:26,000 --> 00:13:28,100
als er niet per se bepaalde doelstellingen zijn

263
00:13:28,260 --> 00:13:30,140
dan zit het uit de positieve kant

264
00:13:30,260 --> 00:13:31,380
en daar hoop je natuurlijk altijd te vinden

265
00:13:31,800 --> 00:13:34,140
als je die niet vindt, dan ga ik toch kijken naar pijnpunten

266
00:13:34,620 --> 00:13:35,760
dan ga ik toch een beetje kijken

267
00:13:35,840 --> 00:13:36,860
waar ligt iemand nou wakker van

268
00:13:37,540 --> 00:13:40,140
en dat kan van alles zijn

269
00:13:42,040 --> 00:13:43,740
soms zijn mensen met een persoonlijke drive

270
00:13:43,840 --> 00:13:45,560
die heel graag iets willen, nou ja, dat kan

271
00:13:46,600 --> 00:13:47,860
maar het kan natuurlijk ook iets zijn

272
00:13:48,200 --> 00:13:51,199
als je weet dat op een gegeven moment

273
00:13:51,240 --> 00:13:53,300
aandelen ergens van gaan kelderen.

274
00:13:53,320 --> 00:13:54,140
Ja goed, heb je ook dat.

275
00:13:55,660 --> 00:13:57,140
Dus je moet een beetje gaan vissen

276
00:13:57,180 --> 00:13:59,360
naar toch de drijfveren van mensen.

277
00:13:59,980 --> 00:14:01,300
En het komt inderdaad

278
00:14:01,680 --> 00:14:03,120
best wel vaak voor dat ze die zelf niet

279
00:14:03,260 --> 00:14:04,500
altijd even goed kunnen verwoorden.

280
00:14:06,160 --> 00:14:07,520
Maar dan is het wat vaker koffiedrinken,

281
00:14:07,600 --> 00:14:08,540
wat vaker meelopen,

282
00:14:09,300 --> 00:14:11,180
soms een beetje gissen en dan komt er vanzelf

283
00:14:11,200 --> 00:14:11,680
iets boven.

284
00:14:14,520 --> 00:14:15,120
Maar dat is,

285
00:14:15,240 --> 00:14:16,960
even kijken hoor, want ik vroeg om drie.

286
00:14:17,320 --> 00:14:17,600
Ja, sorry.

287
00:14:20,220 --> 00:14:25,400
Ja, dus ik zou zeggen die hele grote, dat is eigenlijk het entrepreneurship gedeelte.

288
00:14:27,620 --> 00:14:36,200
Ik denk wat ook een hele grote is, is op een gegeven moment moet je gewoon ervaring hebben met zo'n traject doorgaan.

289
00:14:36,520 --> 00:14:40,820
Ik denk heel veel bedrijven die zijn inmiddels wel comfortabel met een proof of concept draaien.

290
00:14:40,960 --> 00:14:42,760
Of iets van een hackathon organiseren.

291
00:14:43,220 --> 00:14:46,320
Want dat hebben ze gezien, dat is veilig, ze weten hoe dat moet.

292
00:14:46,520 --> 00:14:49,540
Legal weten hoe ze de data gewoon clearance kunnen geven, noem maar op.

293
00:14:49,620 --> 00:14:54,680
Maar eigenlijk daarna zie je een soort van gat in toch een stukje ervaring.

294
00:14:54,780 --> 00:14:57,220
Er zijn maar heel weinig mensen die dat echt hebben.

295
00:14:57,300 --> 00:14:58,700
En dan is het toch stiekem best wel spannend.

296
00:14:59,400 --> 00:15:03,580
En wat wij dan ook meebrengen is dat we wel die ervaring hebben.

297
00:15:03,720 --> 00:15:05,640
Dus we nemen ze dan gewoon eigenlijk aan het handje mee.

298
00:15:05,980 --> 00:15:09,200
En zeggen we gaan dit gewoon samen oplossen.

299
00:15:09,980 --> 00:15:14,440
Ik heb bijvoorbeeld bij NS zijn we bezig met een heel cool project.

300
00:15:14,680 --> 00:15:16,240
Op het gebied van sociale veiligheid.

301
00:15:16,720 --> 00:15:19,000
Maar daarvoor moesten we wel camerabeelden gebruiken.

302
00:15:19,100 --> 00:15:20,120
en daar staan reizigers op.

303
00:15:20,150 --> 00:15:21,700
Dus dat is gevoelige data.

304
00:15:22,320 --> 00:15:24,540
En daar kan je helemaal netjes mee omgaan.

305
00:15:25,000 --> 00:15:28,460
Maar dat betekent niet dat het soms toch niet een beetje spannend is.

306
00:15:28,880 --> 00:15:31,260
En dat betekent gewoon dat je wel echt even de tijd ervoor moet nemen

307
00:15:31,420 --> 00:15:35,300
om samen met legal, maar ook met ethiek, maar ook met de engineers

308
00:15:35,650 --> 00:15:38,560
toch echt in één ruimte moeten zitten en elkaar begrijpen.

309
00:15:39,020 --> 00:15:40,620
En dan komt er eigenlijk altijd wel iets uit.

310
00:15:41,300 --> 00:15:44,660
Een beetje het hebben van het vertrouwen dat het goed komt.

311
00:15:44,790 --> 00:15:47,720
En van one way or another, there is a way.

312
00:15:49,500 --> 00:15:51,500
Die mentaliteit helpt gewoon heel erg.

313
00:15:51,540 --> 00:15:52,000
Ja, precies.

314
00:15:53,440 --> 00:15:56,960
Dus dat is ook zeker iets waar we veel in doen.

315
00:15:59,200 --> 00:16:01,880
En ik denk, nu zitten we er eigenlijk op twee.

316
00:16:02,580 --> 00:16:06,220
Ik denk uiteindelijk waar het soms ook vaak toch nog een beetje spannend wordt in een project.

317
00:16:06,350 --> 00:16:10,200
Is als uiteindelijk staat alles klaar en dan moet je echt lijken.

318
00:16:10,470 --> 00:16:11,160
Dan moet natuurlijk niks.

319
00:16:12,000 --> 00:16:16,460
En dan zie je toch ook heel vaak nog een beetje zo'n huivering in zo'n bedrijf.

320
00:16:16,540 --> 00:16:26,700
Want dan opeens is het niet meer dit coole, innovatieve ding waarmee je voorloopt en toch ook al je schouderklopjes kan verzamelen en op de boel echt de coolste kan zijn.

321
00:16:26,760 --> 00:16:28,180
Maar dan moet je er opeens op gaan vertrouwen.

322
00:16:29,120 --> 00:16:32,560
En dan komt zo'n besef van dit is echt.

323
00:16:34,640 --> 00:16:40,580
En dat is echt denk ik een stukje waar klassiek soort van change, innovatiemanagement naar voren komt.

324
00:16:40,660 --> 00:16:43,520
Dat je dat comfort...

325
00:16:44,960 --> 00:16:46,160
Je weet dat het er is.

326
00:16:46,800 --> 00:16:48,300
Natuurlijk weet iedereen dat het er is.

327
00:16:48,320 --> 00:16:50,380
Maar dat je dat ook echt even bij iedereen kan laten voelen.

328
00:16:50,540 --> 00:16:52,400
Dat is ook nog wel zo'n kritiek moment.

329
00:16:53,320 --> 00:16:54,360
Waar je even doorheen moet met elkaar.

330
00:16:54,600 --> 00:16:56,440
Heb je een voorbeeld van zo'n ongemak?

331
00:16:57,900 --> 00:16:59,180
Dat iemand dat ook uitte?

332
00:17:02,460 --> 00:17:04,500
Ja, het is een indirect voorbeeld.

333
00:17:04,619 --> 00:17:06,880
Maar ik zat inderdaad op een gegeven moment in zo'n project.

334
00:17:07,540 --> 00:17:08,540
En alles stond klaar.

335
00:17:08,540 --> 00:17:09,800
Het was al twintig keer getest.

336
00:17:09,900 --> 00:17:10,560
Meer getest.

337
00:17:10,660 --> 00:17:12,160
Het deed beter dan we hadden verwacht.

338
00:17:12,530 --> 00:17:13,700
Alle metrics van tevoren.

339
00:17:14,319 --> 00:17:16,319
Je spreekt natuurlijk van tevoren met elkaar af.

340
00:17:16,480 --> 00:17:17,640
Waar het aan moet voldoen.

341
00:17:18,069 --> 00:17:19,140
Om het goed genoeg te laten zijn.

342
00:17:19,280 --> 00:17:21,200
En dat zat er allemaal heel dik boven.

343
00:17:21,420 --> 00:17:23,099
Op een gegeven moment hadden we zo'n meeting gepland.

344
00:17:23,280 --> 00:17:23,780
Best wel groot.

345
00:17:24,599 --> 00:17:25,780
Alle stakeholders erbij.

346
00:17:26,520 --> 00:17:28,060
En de main stakeholder.

347
00:17:28,569 --> 00:17:29,320
De business owner.

348
00:17:29,810 --> 00:17:31,019
Die had hem toen afgezegd.

349
00:17:31,100 --> 00:17:31,899
Kan gebeuren.

350
00:17:33,140 --> 00:17:34,200
En een nieuwe gepland.

351
00:17:34,440 --> 00:17:35,279
Weer naar achter geschoven.

352
00:17:36,200 --> 00:17:38,100
Dus ik bel die man op een gegeven moment op.

353
00:17:38,279 --> 00:17:38,500
Ik zeg.

354
00:17:38,800 --> 00:17:40,519
Wat komt er?

355
00:17:42,360 --> 00:17:46,340
En hij zo, ja, ja, ik vind dat we nog wat moeten testen.

356
00:17:46,419 --> 00:17:49,440
Ik zo, ja, oké, maar wat wil je dan testen?

357
00:17:49,500 --> 00:17:51,660
Kijk, als jij denkt dat we een test vergeten zouden, moet je dat natuurlijk doen.

358
00:17:51,700 --> 00:17:52,480
Maar wat wil je dan doen?

359
00:17:53,400 --> 00:17:55,980
Nee, nee, maar ik wil toch eerst nog een keer met het team bespreken.

360
00:17:56,140 --> 00:17:58,880
Ik zo, oké, maar wat wil je dan bespreken?

361
00:17:59,280 --> 00:18:00,780
En zo ging dat een beetje back and forth.

362
00:18:01,740 --> 00:18:06,880
En dat is gewoon, ik denk dat dat toch een hele duidelijke uiting was van dat ongemak,

363
00:18:07,060 --> 00:18:08,200
zonder dat het echt gezegd werd.

364
00:18:09,000 --> 00:18:12,440
En op een gegeven moment herhaal je nogal dingen.

365
00:18:12,720 --> 00:18:17,040
Dan zeg je, we hebben dit samen gedaan, het is super vet.

366
00:18:17,200 --> 00:18:18,620
En uiteindelijk komt het allemaal wel goed.

367
00:18:18,760 --> 00:18:22,600
Een week later werd er op de knop gedrukt en het draait nog steeds.

368
00:18:22,800 --> 00:18:23,820
Kijk, wat mooi.

369
00:18:25,020 --> 00:18:26,300
Af en toe heb je van dat soort...

370
00:18:27,480 --> 00:18:31,380
Nou, en dat is denk ik best wel een uitdaging met AI-projecten.

371
00:18:31,420 --> 00:18:34,760
Is natuurlijk dat je het gevoel hebt dat je misschien wat controle ook verliest.

372
00:18:35,960 --> 00:18:41,100
Ja, want je wil iets automatiseren, efficiënter maken, whatever.

373
00:18:41,260 --> 00:18:43,100
Dus er verandert inderdaad iets.

374
00:18:43,140 --> 00:18:47,080
En waar dat heel vaak eerst of niet gebeurde, of bij mensen lag,

375
00:18:47,140 --> 00:18:48,860
ligt dat nu bij een stukje techniek.

376
00:18:49,520 --> 00:18:51,380
Die ook nog niet deterministisch is.

377
00:18:51,480 --> 00:18:54,580
Dus het is niet altijd dat hetzelfde resultaat geeft.

378
00:18:54,880 --> 00:18:58,600
En ik kan me voorstellen dat mensen dat ook wel lastig dan vinden.

379
00:18:59,260 --> 00:18:59,700
Ja, zeker.

380
00:18:59,800 --> 00:19:03,200
En mijn reactie is altijd, mensen zijn ook niet deterministisch.

381
00:19:03,440 --> 00:19:04,220
Nee, zeker niet.

382
00:19:06,020 --> 00:19:10,360
Maar zo voelt dat natuurlijk niet, laten we maar zeggen, voor mensen.

383
00:19:10,840 --> 00:19:17,500
Maar wat dan ook wel weer de grap is, en ik denk dat dat ook een stukje comfort en ervaring opdoen is met dit soort trajecten.

384
00:19:18,600 --> 00:19:20,840
Als het dan eenmaal draait en mensen geloven het helemaal.

385
00:19:21,260 --> 00:19:23,760
De eerste twee, drie weken wordt nog heel erg gecheckt.

386
00:19:24,080 --> 00:19:26,860
Dan wordt een keer per maand gecheckt en dan opeens kijkt niemand ernaar.

387
00:19:26,860 --> 00:19:28,100
Want dan is het gewoon normaal.

388
00:19:28,500 --> 00:19:30,260
Dan is het gewoon, dan wil je niet meer zonder.

389
00:19:30,400 --> 00:19:31,620
En dan denken ze, oh ja, ik geloof het wel.

390
00:19:32,080 --> 00:19:38,800
Dus als je daar eenmaal doorheen bent, dan is het alsof die discussie eigenlijk nooit heeft plaatsgevonden bij zo'n bedrijf.

391
00:19:38,800 --> 00:19:39,500
Ja, mooi is dat.

392
00:19:40,700 --> 00:19:45,460
En een tijdje terug heb ik een aflevering gemaakt over wat is nou erger.

393
00:19:45,580 --> 00:19:48,480
Of nou de mens een fout maakt of de AI een fout maakt.

394
00:19:50,200 --> 00:19:52,500
Zie jij dat soort vraagstukken voorbij komen?

395
00:19:54,300 --> 00:19:55,900
Nee, niet direct.

396
00:19:56,240 --> 00:19:58,880
Ik denk wel een beetje indirect in een soort sentiment.

397
00:19:59,760 --> 00:20:04,280
Wat ik heel vaak zie of hoor is van...

398
00:20:04,280 --> 00:20:06,780
Ja, maar de AI kan het niet altijd perfect doen.

399
00:20:07,040 --> 00:20:09,080
En over het algemeen klopt dat.

400
00:20:10,979 --> 00:20:14,460
Maar dan zeg ik ook dat dat ook niet per se de lat...

401
00:20:14,460 --> 00:20:15,900
die je in heel veel cases moet hebben.

402
00:20:16,800 --> 00:20:19,540
Het is, kan je het beter doen dan dat je het nu doet?

403
00:20:19,999 --> 00:20:21,700
Dat is denk ik de vraag die je moet stellen.

404
00:20:21,740 --> 00:20:24,240
Want dat is hoe ik vooruitgang eruit ziet.

405
00:20:27,240 --> 00:20:31,500
Dus ja, ik denk dat het sentiment is dat het erger is als de AI het doet.

406
00:20:31,610 --> 00:20:33,800
Maar of dat uiteindelijk ook echt zo is, ik denk het niet.

407
00:20:34,130 --> 00:20:41,400
Nee, als het goed is, net wat je zegt, ontwikkel je dat hij het in ieder geval beter doet dan wat je had.

408
00:20:43,160 --> 00:20:50,080
Maar ik kan me zo voorstellen dat het verhaal wat je net vertelde over die business owner,

409
00:20:51,620 --> 00:20:53,880
Dat het best wel moeilijk is om...

410
00:20:54,380 --> 00:20:57,780
Dat je toestaat dat de AI af en toe een fout maakt.

411
00:20:57,860 --> 00:21:01,120
Dus als jij een traditioneel software systeem hebt...

412
00:21:01,120 --> 00:21:04,040
Dan weet je gewoon als de testen draaien...

413
00:21:04,040 --> 00:21:05,520
Als we het dan toch over testen hebben...

414
00:21:05,720 --> 00:21:09,660
Dan doet hij in ieder geval alles wat we gespecificeerd hebben...

415
00:21:09,660 --> 00:21:10,060
Dat doet hij.

416
00:21:10,600 --> 00:21:13,740
En dat is natuurlijk lastiger als we met machine learning...

417
00:21:13,740 --> 00:21:14,920
Of met AI aan de slag gaan.

418
00:21:15,700 --> 00:21:18,120
Ja, de verantwoordelijkheidskwestie verandert eigenlijk.

419
00:21:18,220 --> 00:21:19,639
Want als het een mens is...

420
00:21:19,680 --> 00:21:21,940
Ook al maakt die meer fouten of grotere fouten of whatever.

421
00:21:22,440 --> 00:21:23,900
Die kan je nog op z'n vinger stikken.

422
00:21:23,910 --> 00:21:26,660
Of dan kan hij er een keer langs zeggen, je functioneert niet.

423
00:21:27,540 --> 00:21:30,880
Met een AI heeft dat natuurlijk wat minder zin.

424
00:21:30,980 --> 00:21:32,420
Dat werkt niet echt zo.

425
00:21:34,160 --> 00:21:37,640
En ik denk dat dit eigenlijk ook wel een heel mooi voorbeeld is.

426
00:21:37,690 --> 00:21:42,680
Want ik denk heel vaak wordt ook AI-innovatie toch nog een soort van benaderd.

427
00:21:42,860 --> 00:21:50,180
Alsof het een soort van klassieke digitalisering innovatie is.

428
00:21:50,720 --> 00:21:53,800
Ik denk uiteindelijk ook de potentie die AI heeft.

429
00:21:53,880 --> 00:21:56,080
Juist omdat het misschien dat niet deterministisch heeft.

430
00:21:56,160 --> 00:21:57,260
Juist omdat het groter kan.

431
00:21:57,540 --> 00:22:01,799
Juist omdat het gewoon meer kan dan klassiek een blokje automatiseren.

432
00:22:02,380 --> 00:22:03,520
Wat nu in je proces zit.

433
00:22:04,020 --> 00:22:09,380
Is dat juist ook denk ik waar de kracht en uiteindelijk ook echt de potentie van AI ligt.

434
00:22:09,800 --> 00:22:13,500
Alleen de consequentie daarvan is natuurlijk wel dat je businessprocessen er ook helemaal uit gaat zien.

435
00:22:13,620 --> 00:22:17,200
Want van die klassieke digitaliseringstrajecten, je hebt gewoon een proces.

436
00:22:17,690 --> 00:22:19,700
Daar haal je een blokje uit en dat automatiseer je.

437
00:22:20,480 --> 00:22:23,280
En normaal als dat deterministisch is, dan heb je deze hele discussie niet.

438
00:22:23,840 --> 00:22:29,180
Maar wat ik het vette en het mooie van AI vind, is dat het eigenlijk de kracht heeft

439
00:22:29,620 --> 00:22:34,580
om gewoon zo'n heel proces op de kop te zetten en beter te maken en efficiënter te maken.

440
00:22:35,040 --> 00:22:38,040
En heeft dat dan impact in hoe je je bedrijf rund, 100 procent?

441
00:22:38,340 --> 00:22:40,640
Maar volgens mij is dat wat we moeten willen.

442
00:22:40,940 --> 00:22:43,720
Want dat is gewoon waar de echte waarde ligt.

443
00:22:44,740 --> 00:22:48,320
Maakt dat het groter? Maakt dat het complexer? Maakt dat het multidisciplinairder?

444
00:22:48,670 --> 00:22:49,100
100 procent.

445
00:22:49,930 --> 00:22:53,400
Maar in the end denk ik, dat is juist waar we naartoe moeten met elkaar.

446
00:22:54,720 --> 00:22:59,060
Zie jij ook dat als je dat hebt over de processen,

447
00:22:59,500 --> 00:23:03,660
dat mensen het ook beter gaan begrijpen wat ze op dat moment aan het doen zijn?

448
00:23:04,340 --> 00:23:05,260
In hun eigen werkwoordelijkheid?

449
00:23:05,360 --> 00:23:05,460
Ja.

450
00:23:06,560 --> 00:23:13,220
Kijk, als je je werk operationeel hebt, dan doe je de dingen zoals je dat gewend bent.

451
00:23:13,960 --> 00:23:17,260
En ben je je niet zozeer bewust van hoe je proces loopt.

452
00:23:17,680 --> 00:23:19,180
En vooral eigenlijk de uitzonderingen.

453
00:23:20,780 --> 00:23:27,080
Als je met AI of zelfs misschien met agents aan de slag wil, dan moet je dat proces in kaart gaan brengen.

454
00:23:27,300 --> 00:23:30,660
En blijkt het proces misschien zelfs wel complexer te zijn dan dat je denkt.

455
00:23:30,940 --> 00:23:31,500
Oh, honderd procent.

456
00:23:31,940 --> 00:23:32,120
Ja, toch?

457
00:23:33,380 --> 00:23:35,760
Daarom die eerste fase waar ik het over had.

458
00:23:36,120 --> 00:23:37,760
Daar komt dit eigenlijk altijd in naar boven.

459
00:23:37,880 --> 00:23:43,520
Want wat je heel vaak ziet is dat je toch een soort management, middelmanagement niveau iemand heeft.

460
00:23:43,560 --> 00:23:45,340
En die zegt, ja vet idee, gaan we doen.

461
00:23:45,680 --> 00:23:46,340
Ja dat kan gewoon.

462
00:23:46,680 --> 00:23:50,100
En dan loop je een keer, ga je een keer koffie drinken ofzo met mensen die het echt doen.

463
00:23:50,180 --> 00:23:52,060
En zeggen, ja ik denk dat het wel kan.

464
00:23:52,160 --> 00:23:53,180
Ik denk dat het ook wel meer kan.

465
00:23:53,380 --> 00:23:54,500
En dan, nou heel vet.

466
00:23:54,600 --> 00:23:56,920
En dan ga je inderdaad echt zo'n proces uitmappen.

467
00:23:57,000 --> 00:24:01,080
En dan komt er zo'n heel oerwoud eigenlijk uit naar voren.

468
00:24:01,960 --> 00:24:06,480
En ik denk ook once again, ik vind dat heel grappig om te zien.

469
00:24:06,510 --> 00:24:10,540
Want als je inderdaad dat hele soort van oerwoud en hoe complex die processen vaak echt zijn.

470
00:24:10,620 --> 00:24:11,499
Helemaal inderdaad met die uitzonderingen.

471
00:24:12,050 --> 00:24:13,980
En dan ook nog eens domeinkennis die mensen hebben.

472
00:24:14,200 --> 00:24:16,720
En dat sommige dingen wel goed gedefinieerd zijn.

473
00:24:16,820 --> 00:24:20,860
Andere dingen ook vaak niet goed echt, of tenminste niet strak op papier staan.

474
00:24:22,860 --> 00:24:25,280
En dan is het heel lastig om inderdaad weer te zeggen.

475
00:24:25,360 --> 00:24:29,320
Oké, ik ga naar dat blokje zoeken wat ik eruit wil pakken en wil automatiseren met AI.

476
00:24:30,740 --> 00:24:35,340
Maar juist dat soort processen, denk ik, daar heeft AI dan die fantastische potentie.

477
00:24:35,770 --> 00:24:42,160
Alleen dan moet je natuurlijk wel dat zien en dat ook aandurven als bedrijf.

478
00:24:42,160 --> 00:24:46,280
Van hé, oké, wacht maar, we gaan echt iets veranderen met elkaar.

479
00:24:50,200 --> 00:24:56,900
Wat is nou voor bedrijven nodig als startpunt om met AI te beginnen?

480
00:24:59,060 --> 00:25:00,160
In jouw beleving.

481
00:25:01,760 --> 00:25:02,440
Laat ik het zo zeggen.

482
00:25:02,790 --> 00:25:06,560
Er wordt vaak gedacht van al je data moet op orde zijn.

483
00:25:06,690 --> 00:25:08,040
Je data huishouding moet goed zijn.

484
00:25:09,160 --> 00:25:11,000
Je processen moeten in kaart zijn gebracht.

485
00:25:13,140 --> 00:25:17,520
En die gedachte werkt denk ik heel erg drempelverhogend om te beginnen.

486
00:25:18,100 --> 00:25:20,020
Waardoor je de eerste stappen niet maakt.

487
00:25:20,160 --> 00:25:24,120
En ook niet meegaat in het leren met deze technologie.

488
00:25:24,920 --> 00:25:27,200
Zelf denk ik dat die drempel lager ligt.

489
00:25:27,720 --> 00:25:28,320
Ja dat denk ik ook.

490
00:25:28,910 --> 00:25:30,060
Er zit natuurlijk allemaal wat in.

491
00:25:30,220 --> 00:25:31,900
Dat je een bepaalde basis moet hebben.

492
00:25:32,600 --> 00:25:34,040
Maar zelfs al heb je die niet.

493
00:25:34,140 --> 00:25:34,940
Kan je denk ik beginnen.

494
00:25:36,260 --> 00:25:38,380
Ik denk de rol die wij als Kickstarter.ti.

495
00:25:38,450 --> 00:25:40,080
heel erg vervullen in de project.

496
00:25:40,170 --> 00:25:40,940
Ook bij onze partners.

497
00:25:41,700 --> 00:25:42,800
Wij zijn een beetje de changemakers.

498
00:25:42,990 --> 00:25:45,480
Wij zijn degene die gewoon door barrières heen gaan.

499
00:25:45,680 --> 00:25:46,800
Met een grote glimlach.

500
00:25:46,830 --> 00:25:47,720
En heel vriendelijk.

501
00:25:48,260 --> 00:25:51,860
Maar we zijn toch wel degene die de muren een beetje naar beneden slopen.

502
00:25:52,620 --> 00:25:54,540
En ik denk dat dat hetgene is.

503
00:25:54,590 --> 00:25:57,440
Wat het vaak inderdaad gemist wordt.

504
00:25:57,490 --> 00:25:58,740
En ik denk ook in de hele soort van.

505
00:25:59,340 --> 00:26:01,560
Hoe ook vaak over AI gepraat wordt.

506
00:26:01,680 --> 00:26:03,120
Of dat nou binnen bedrijven is.

507
00:26:03,230 --> 00:26:05,440
Of misschien zelfs gewoon politiek.

508
00:26:05,520 --> 00:26:06,580
Wordt er inderdaad heel vaak zegt.

509
00:26:07,080 --> 00:26:07,820
Ja maar je moet dit hebben.

510
00:26:07,850 --> 00:26:08,460
Je moet dat hebben.

511
00:26:08,540 --> 00:26:09,120
Je moet zus hebben.

512
00:26:09,130 --> 00:26:09,480
Je moet hier.

513
00:26:09,680 --> 00:26:12,320
En als je al die checkbokjes niet hebt afgevinkt.

514
00:26:12,600 --> 00:26:13,600
Dan moet je er eigenlijk niet aan beginnen.

515
00:26:13,720 --> 00:26:14,880
Want dan is het te spannend en te eng.

516
00:26:15,040 --> 00:26:16,080
En pas maar op.

517
00:26:17,300 --> 00:26:18,220
En uiteindelijk denk ik gewoon.

518
00:26:18,300 --> 00:26:18,980
Je moet gewoon gaan doen.

519
00:26:19,120 --> 00:26:21,160
Je moet gewoon je handen vies maken.

520
00:26:21,560 --> 00:26:24,320
Je moet er eigenlijk bijna een beetje blond in gaan staan.

521
00:26:24,500 --> 00:26:24,980
En gewoon gaan zeggen.

522
00:26:27,300 --> 00:26:28,200
Ik heb het nog nooit gedaan.

523
00:26:28,920 --> 00:26:30,500
Maar dat betekent niet dat het niet kan.

524
00:26:30,680 --> 00:26:31,820
Het kan waarschijnlijk gewoon wel.

525
00:26:32,360 --> 00:26:35,200
En laten we gewoon naar een manier gaan zoeken hoe het wel kan.

526
00:26:35,420 --> 00:26:39,660
Dus ik denk in die zin is het enige wat je echt nodig hebt, is een can-do mentaliteit.

527
00:26:40,160 --> 00:26:40,840
Oh, dat is een mooie.

528
00:26:41,700 --> 00:26:42,280
Just do it.

529
00:26:43,640 --> 00:26:43,960
Nike.

530
00:26:44,880 --> 00:26:46,400
Ja, want dan komen ook die dingen vanzelf wel.

531
00:26:47,040 --> 00:26:50,620
Mocht je inderdaad je data niet helemaal op orde hebben, dan loop je daar vanzelf wel tegen aan.

532
00:26:50,720 --> 00:26:53,160
Maar als je die mentaliteit hebt, dan kan je dat ook oplossen.

533
00:26:53,440 --> 00:26:53,520
Ja.

534
00:26:54,800 --> 00:27:00,180
Nou, en dat is ook de enige manier om erachter te komen dat je de data niet hebt, toch?

535
00:27:00,600 --> 00:27:03,760
Ja, zeker. En misschien kom je er ook wel achter dat je heel veel data wel hebt.

536
00:27:03,980 --> 00:27:04,100
Ja.

537
00:27:04,460 --> 00:27:06,080
Ja, dat zou ook zomaar kunnen.

538
00:27:06,260 --> 00:27:11,300
Of je komt erachter dat je veel minder complexe IT-infra nodig hebt dan dat je dacht.

539
00:27:11,640 --> 00:27:11,940
Precies.

540
00:27:12,120 --> 00:27:15,140
Ja, en zeker met al die large language models.

541
00:27:15,800 --> 00:27:21,040
Ik bedoel, je gooit er een prompt in en die zet die infra al voor je neer, laat maar zeggen.

542
00:27:21,820 --> 00:27:28,380
Je moet altijd even goed naar kijken, maar er kan zoveel als je er gewoon met die blik in gaat.

543
00:27:29,820 --> 00:27:37,920
Als je nou echt een extreem laag budget zou hebben, wat zou het eerste component zijn,

544
00:27:38,540 --> 00:27:43,660
en dat mag technisch, dat kan qua proces zijn, wat je mee zou nemen in zo'n traject?

545
00:27:44,410 --> 00:27:51,480
Ja, ik zou heel graag een persoon binnen het bedrijf waar we zo'n traject doen.

546
00:27:51,960 --> 00:27:53,320
willen vinden met die mentaliteit.

547
00:27:54,300 --> 00:27:55,960
Want dat zijn degenen die gewoon

548
00:27:56,760 --> 00:27:57,880
de wegen vinden hoe het wel kan.

549
00:27:58,460 --> 00:28:00,100
Loop je ergens tegenaan, die persoon

550
00:28:00,240 --> 00:28:02,080
kent nog wel iemand. Of die heeft nog wel,

551
00:28:02,080 --> 00:28:04,040
die kan je aan iets linken. Of die kan je de achtergrond

552
00:28:04,240 --> 00:28:05,680
vertellen. Of die wil het wel.

553
00:28:07,340 --> 00:28:07,740
En die,

554
00:28:08,680 --> 00:28:09,380
hoe je het ook wil noemen,

555
00:28:09,700 --> 00:28:11,140
de can-do'ers, de changemakers,

556
00:28:11,780 --> 00:28:12,760
geef ze een mooie naam.

557
00:28:13,960 --> 00:28:14,760
De beukers.

558
00:28:15,960 --> 00:28:17,280
Dat zijn de mensen die uiteindelijk echt

559
00:28:17,740 --> 00:28:19,580
versnellen en echt verandering veroorzaken.

560
00:28:20,600 --> 00:28:20,960
Mooi.

561
00:28:21,180 --> 00:28:21,980
Hoef je er maar eentje van te hebben.

562
00:28:22,140 --> 00:28:23,500
Ja, dat is een goeie.

563
00:28:25,720 --> 00:28:31,340
Ik pak hem even erbij, want ik had nog een mooie vraag voorbereid.

564
00:28:34,060 --> 00:28:40,760
Dat is namelijk, ik hoor wel eens dat non-profit organisaties innovatiever kunnen zijn,

565
00:28:41,200 --> 00:28:45,760
juist omdat zij wat minder risicomijdend zijn dan de corporates.

566
00:28:45,960 --> 00:28:46,460
Herken je dat?

567
00:28:50,780 --> 00:28:52,520
Ja, zou kunnen.

568
00:28:52,570 --> 00:28:56,580
Ik bedoel, de ene non-profit is ook niet per se de andere non-profit.

569
00:28:58,140 --> 00:29:01,840
Wat ik wel heel erg zie vanuit Kickstarter AI zelf,

570
00:29:02,160 --> 00:29:04,420
is omdat wij in die non-profit structuur zitten,

571
00:29:04,880 --> 00:29:08,900
kan ik ook volledig optimaliseren voor die gerealiseerde impact.

572
00:29:09,820 --> 00:29:12,160
Natuurlijk als je ergens commercieel in zit, wat ik ook zeker heb gedaan,

573
00:29:12,340 --> 00:29:13,980
wat ook heel mooi is om te doen.

574
00:29:14,920 --> 00:29:18,140
Maar dan zit je toch vaak, je moet ook je volgende sale binnenhalen.

575
00:29:18,700 --> 00:29:20,060
En er zit een hele grote overlap in.

576
00:29:20,180 --> 00:29:21,040
Maar is toch net iets anders.

577
00:29:21,400 --> 00:29:24,800
En omdat we ook die lange termijn relaties met die partners hebben.

578
00:29:25,500 --> 00:29:27,880
Bouw je ook een relatie met elkaar op.

579
00:29:28,420 --> 00:29:32,760
Dus in die zin is dat anders werken met elkaar.

580
00:29:32,960 --> 00:29:36,120
Veel impact gerichter eigenlijk.

581
00:29:38,560 --> 00:29:40,260
En ik denk over het algemeen.

582
00:29:41,100 --> 00:29:42,400
Zeker Nederlandse corporates.

583
00:29:42,440 --> 00:29:44,180
Die zijn gewoon heel risico avers.

584
00:29:44,400 --> 00:29:45,460
Dat zit in de cultuur.

585
00:29:46,340 --> 00:29:49,540
Zo zijn de incentives ingericht.

586
00:29:50,600 --> 00:29:52,640
en dat is heel zonde

587
00:29:52,720 --> 00:29:54,000
en ik denk dat dat veel breder gaat

588
00:29:54,180 --> 00:29:56,120
dan alleen met AI en innovatie

589
00:29:57,520 --> 00:29:58,160
maar ja wat je toch

590
00:29:58,400 --> 00:30:00,040
vaak ziet is verandering

591
00:30:00,140 --> 00:30:01,880
is toch eng want als het dan misgaat

592
00:30:01,980 --> 00:30:03,800
dan kunnen er wel echt koppen rollen

593
00:30:03,900 --> 00:30:06,360
terwijl als het gewoon hetzelfde blijft en het gaat dan uiteindelijk slecht

594
00:30:06,360 --> 00:30:08,180
met een bedrijf dan is het

595
00:30:08,250 --> 00:30:10,260
zoals het altijd gaat om het heel plat te zeggen

596
00:30:11,460 --> 00:30:11,820
dus

597
00:30:12,640 --> 00:30:12,980
ja kijk

598
00:30:14,540 --> 00:30:15,780
ik ben de eerste die zou zeggen

599
00:30:15,960 --> 00:30:18,340
laten we daar op een manier natuurlijk ook een cultuurverandering

600
00:30:18,590 --> 00:30:19,540
in krijgen in dit land

601
00:30:19,560 --> 00:30:21,840
Dat zou innovatie alleen maar ten goede komen.

602
00:30:22,500 --> 00:30:27,060
Je had het over het impact maken van die non-profits.

603
00:30:28,240 --> 00:30:29,940
Daar wil ik eigenlijk wel wat over doorvragen.

604
00:30:31,020 --> 00:30:32,420
Want we hebben het over KPIs gehad.

605
00:30:32,480 --> 00:30:40,400
En wat je heel vaak ziet is dat zeker in bedrijven wordt AI voornamelijk ingezet voor productiviteitsverbetering.

606
00:30:41,040 --> 00:30:43,540
Bij die non-profits gaf je al aan een hele andere type impact.

607
00:30:44,140 --> 00:30:53,080
Zou je een aantal andere KPIs kunnen noemen dan de productiviteit waar AI juist ook heel erg bij kan helpen?

608
00:30:55,580 --> 00:31:01,360
Ja, zeker. Ik denk, die bijvoorbeeld Nesproject ook al eerder noemde, dat zit op een stukje sociale veiligheid.

609
00:31:01,820 --> 00:31:04,340
Dus daar zit ook natuurlijk wel een productiviteitsangle aan.

610
00:31:04,360 --> 00:31:09,000
Ik denk dat je die op een manier altijd kan vinden, maar dat zit hem heel erg in het ondersteunen van de meldkamer.

611
00:31:09,560 --> 00:31:11,860
In detectie van onbeheerde objecten op stations.

612
00:31:14,460 --> 00:31:17,360
En daar meet je op een stukje veiligheid.

613
00:31:17,840 --> 00:31:18,660
Wat je groter maakt.

614
00:31:19,080 --> 00:31:21,860
Dat kan je doen omdat je de meldkamer efficiënter maakt.

615
00:31:21,880 --> 00:31:23,800
Omdat je een AI ter ondersteuning daar neerzet.

616
00:31:24,640 --> 00:31:26,640
Maar uiteindelijk meet je een stukje veiligheid.

617
00:31:27,260 --> 00:31:29,540
En dat is neem ik dan aan ook het primaire doel.

618
00:31:30,340 --> 00:31:30,740
Veiligheidsverhoging.

619
00:31:30,920 --> 00:31:35,920
Dus dat is eigenlijk dan je belangrijkste doel die je wil gaan beïnvloeden.

620
00:31:36,120 --> 00:31:36,200
Ja.

621
00:31:37,960 --> 00:31:40,320
Die van Amperre is dus een business case in CO2.

622
00:31:40,940 --> 00:31:41,340
Reductie.

623
00:31:41,440 --> 00:31:42,540
Ja, die had je inderdaad ook al genoemd.

624
00:31:42,540 --> 00:31:43,300
Dat is ook een hele mooie.

625
00:31:44,440 --> 00:31:46,560
We hebben ook een project bij KLM gedaan.

626
00:31:47,100 --> 00:31:49,920
En daar zat hem op food waste, vermindering.

627
00:31:50,340 --> 00:31:51,300
Dat was ook een hele mooie.

628
00:31:51,420 --> 00:31:54,040
Daar kwam ook echt, hoe heet het?

629
00:31:54,740 --> 00:31:56,440
Het resultaat daarvan was ook echt heel mooi.

630
00:31:56,450 --> 00:31:59,940
Op de intercontinentale vlucht hebben ze nu 63% minder verspilling.

631
00:32:00,180 --> 00:32:00,580
Oh, wauw.

632
00:32:00,670 --> 00:32:02,000
Dus dat zijn...

633
00:32:02,380 --> 00:32:03,400
Ja, dat is enorm.

634
00:32:03,470 --> 00:32:03,940
...voor je doet.

635
00:32:06,640 --> 00:32:11,000
En bij het Erasmus MC hebben we een project voor de spoedeisende hulp gedaan.

636
00:32:11,000 --> 00:32:15,840
en dat is eigenlijk op beter kunnen managen van de inflow

637
00:32:15,920 --> 00:32:19,420
en dus de drukte en de bezetting van de spoedeisende hulp.

638
00:32:20,000 --> 00:32:22,560
Dus dat is goed, daar kan je meten op.

639
00:32:23,020 --> 00:32:27,160
We hebben toen gezegd, onze primaire metric is eigenlijk het op rood gaan kunnen verminderen.

640
00:32:28,260 --> 00:32:31,160
Maar daar zit natuurlijk van alles achter, van een stukje kwaliteit dat je levert

641
00:32:31,300 --> 00:32:33,200
tot gewoon werkgeluk van de mensen die daar zitten

642
00:32:33,440 --> 00:32:37,360
en gewoon ook jouw ervaring mocht je daar als patiënt langskomen.

643
00:32:38,080 --> 00:32:39,580
Ja, hele mooie voorbeelden.

644
00:32:40,040 --> 00:32:43,640
En ik denk dat daar te weinig aandacht voor is.

645
00:32:44,180 --> 00:32:48,720
Tenminste, bij de bedrijven waar ik kom, is het heel snel productiviteit, productiviteit, productiviteit.

646
00:32:49,860 --> 00:32:54,040
Ik vind het echt waanzinnige voorbeelden van hoe je daar ook anders naar kan kijken.

647
00:32:54,360 --> 00:32:55,080
Ja, zeker.

648
00:32:55,820 --> 00:33:01,580
We hebben een kaartspel ontwikkeld om juist ook met elkaar, je had het over multidisciplinair werken.

649
00:33:02,640 --> 00:33:08,840
Er bestaan natuurlijk best wel heel veel onuitgesproken ideeën over hoe je ermee om moet gaan, hoe je dat adopteert.

650
00:33:09,320 --> 00:33:15,380
We hebben een kaartspel ontwikkeld om juist met elkaar te spreken over allerlei verschillende stellingen.

651
00:33:15,980 --> 00:33:17,640
Zodat je die eigenlijk expliciet maakt.

652
00:33:17,780 --> 00:33:20,040
En daarvan wil ik er ook eentje aan jou voorleggen.

653
00:33:20,180 --> 00:33:20,520
Helemaal goed.

654
00:33:20,620 --> 00:33:21,120
Ik ben benieuwd.

655
00:33:38,960 --> 00:33:39,880
Oké, ik heb hem niet open.

656
00:33:42,220 --> 00:33:43,000
Dat is wat.

657
00:33:43,879 --> 00:33:46,540
Ik loop een potje te klungelen ermee.

658
00:33:47,300 --> 00:33:47,920
Even kijken.

659
00:33:48,830 --> 00:33:48,980
Nou.

660
00:33:51,660 --> 00:33:51,960
1, 2.

661
00:33:53,300 --> 00:33:55,240
Ik zal de langste stilte eruit knippen.

662
00:33:56,540 --> 00:33:57,460
Hij wil echt niet.

663
00:33:57,700 --> 00:33:58,940
Moet ik eens kijken of ik hem...

664
00:33:59,759 --> 00:34:00,740
Als je zou willen.

665
00:34:01,000 --> 00:34:01,080
Ja.

666
00:34:03,560 --> 00:34:04,020
Even kijken.

667
00:34:11,800 --> 00:34:14,260
Ik denk dat doe ik even snel in het muziekje.

668
00:34:18,199 --> 00:34:24,360
Ik zal daar een willekeurige stelling uit het kaartspel halen nadat het klungel gestopt is.

669
00:34:27,320 --> 00:34:32,259
De stelling komt uit gebruik en toepassingen.

670
00:34:33,280 --> 00:34:36,219
Generatieve AI verrijkt menselijke creativiteit.

671
00:34:39,420 --> 00:34:40,440
Ja, ik denk dat het best zou kunnen.

672
00:34:42,500 --> 00:34:45,639
Ik weet niet meer precies waar ik hem heb gezien.

673
00:34:45,679 --> 00:34:49,940
Maar het is eigenlijk een soort extra tool.

674
00:34:50,120 --> 00:34:52,880
Net als dat een kwast je ook kan helpen met verf.

675
00:34:52,940 --> 00:34:57,580
Dat je dat niet meer met je vingers op kan vasen of te schilderen.

676
00:34:59,020 --> 00:35:02,219
Ik denk, het wordt inderdaad heel vaak in een soort context gebruikt.

677
00:35:02,380 --> 00:35:03,380
Dat je er gewoon iets in kan gooien.

678
00:35:03,900 --> 00:35:04,700
Er komt iets uit.

679
00:35:04,920 --> 00:35:07,880
En er komt over het algemeen best kwalitatief iets uit.

680
00:35:08,040 --> 00:35:09,239
Daarom vinden we dat zo eng.

681
00:35:10,880 --> 00:35:15,540
Ik denk wel dat het een stukje creativiteit kan veranderen.

682
00:35:15,550 --> 00:35:18,680
Of hoe wij met onze eigen creativiteit omgaan veranderen.

683
00:35:18,700 --> 00:35:21,420
Dat merk ik soms bij mezelf ook een beetje.

684
00:35:21,450 --> 00:35:24,260
Als ik het tekst bijvoorbeeld laat genereren.

685
00:35:26,259 --> 00:35:27,420
Misschien als voorbeeld.

686
00:35:28,400 --> 00:35:30,100
Af en toe schrijf ik gewoon kleine stukjes.

687
00:35:30,110 --> 00:35:30,520
Gewoon als hobby.

688
00:35:30,640 --> 00:35:31,360
Vind ik leuk om te doen.

689
00:35:31,879 --> 00:35:32,240
en

690
00:35:33,419 --> 00:35:35,260
ik doe dat wel eens samen met een AI

691
00:35:35,410 --> 00:35:37,280
dat ik gewoon zeg, schrijf gewoon

692
00:35:37,330 --> 00:35:38,740
een heel stuk voor mij, maar dan zeg ik

693
00:35:39,240 --> 00:35:41,240
ik zit hier aan te denken, heb je wat snippets

694
00:35:41,240 --> 00:35:42,860
of heb je wat voorbeelden of heb je wat

695
00:35:43,399 --> 00:35:44,540
schrijvers of stijlen

696
00:35:45,260 --> 00:35:47,020
noem maar op, om dan een beetje

697
00:35:47,580 --> 00:35:49,280
een soort sparringspartner er eigenlijk van

698
00:35:49,310 --> 00:35:51,060
te maken en voor mij

699
00:35:51,300 --> 00:35:53,100
ik vind dat heel leuk, ik word er eigenlijk alleen maar

700
00:35:53,110 --> 00:35:54,980
een soort van hele creatieve bubbel die

701
00:35:55,200 --> 00:35:57,220
sparkt dan helemaal, dus ik denk

702
00:35:57,220 --> 00:35:58,700
dat je het zeker zo kan gebruiken

703
00:35:59,460 --> 00:36:01,420
voor de mensen die het gebruiken als in

704
00:36:01,440 --> 00:36:03,280
Gewoon dingen automatiseren.

705
00:36:03,700 --> 00:36:05,400
Als dat überhaupt creatief werk.

706
00:36:05,580 --> 00:36:06,600
Om mee te beginnen.

707
00:36:06,680 --> 00:36:08,180
Dat kan je dan denk ik überhaupt afvragen.

708
00:36:10,100 --> 00:36:11,040
Dus ik zou zeggen.

709
00:36:13,160 --> 00:36:13,980
Yet another tool.

710
00:36:14,000 --> 00:36:14,940
Die gewoon heel veel kan.

711
00:36:15,600 --> 00:36:18,140
Maar zeker niet af doet aan creativiteit.

712
00:36:18,320 --> 00:36:19,920
Ja mooi. Dankjewel.

713
00:36:21,300 --> 00:36:22,240
Ik ben ook nog wel benieuwd.

714
00:36:23,640 --> 00:36:25,940
Nu dat je in het vakgebied zit.

715
00:36:26,480 --> 00:36:27,840
Zou je kunnen aangeven.

716
00:36:28,020 --> 00:36:30,500
Wat zijn nou specifieke vaardigheden.

717
00:36:30,840 --> 00:36:35,580
Die je nodig hebt om in dit vakgebied te floreren.

718
00:36:36,740 --> 00:36:37,520
Ja, zeker.

719
00:36:37,640 --> 00:36:39,600
Ik denk dat het heel veel verschillend kan zijn.

720
00:36:39,800 --> 00:36:42,640
Juist omdat het als je echt naar die grote potentie gaat.

721
00:36:42,740 --> 00:36:43,820
Dat echt dat baanbrekende.

722
00:36:44,280 --> 00:36:46,620
Dan is het gewoon heel inter-multidisciplinair.

723
00:36:48,080 --> 00:36:50,640
Ik denk waar je ook zit.

724
00:36:50,640 --> 00:36:52,300
Of je meer aan de technische ontwikkelkant zit.

725
00:36:52,380 --> 00:36:54,500
Of meer aan de people kant ervan.

726
00:36:56,280 --> 00:36:58,440
Gewoon goed met nieuwe informatie, verandering.

727
00:36:58,500 --> 00:37:00,320
Dat soort dingen om kunnen gaan.

728
00:37:00,600 --> 00:37:02,220
Het verandert zo snel.

729
00:37:03,830 --> 00:37:04,680
Het kan steeds meer.

730
00:37:04,750 --> 00:37:06,600
Dus de impact die het kan hebben ook heel erg.

731
00:37:07,040 --> 00:37:07,540
Dus ik denk.

732
00:37:09,440 --> 00:37:11,180
Jezelf een soort van trainen.

733
00:37:11,250 --> 00:37:13,240
In dat hele neuroplastische.

734
00:37:13,400 --> 00:37:14,680
Of hoe je het ook zo moet noemen.

735
00:37:14,800 --> 00:37:15,900
Ik heb daar geen experiment in.

736
00:37:15,940 --> 00:37:16,500
Maar dat je gewoon.

737
00:37:18,660 --> 00:37:19,640
Goed gaat op verandering.

738
00:37:19,780 --> 00:37:19,960
Denk ik.

739
00:37:20,599 --> 00:37:20,960
Nieuwigheid.

740
00:37:21,030 --> 00:37:23,300
Ik denk dat dat een hele groei is om te hebben.

741
00:37:24,080 --> 00:37:25,420
Maar ik denk zelfs daarna.

742
00:37:25,850 --> 00:37:28,240
En dat gaat weer een beetje terug op waar we het eerder over hadden.

743
00:37:28,380 --> 00:37:29,540
Waar ik gewoon nu zie.

744
00:37:29,780 --> 00:37:33,080
Wat echt het grootste tekort zit.

745
00:37:33,140 --> 00:37:33,980
Of de blokker zit.

746
00:37:34,080 --> 00:37:37,020
In waarom we nog niet alle potentie uit de jaren halen.

747
00:37:37,340 --> 00:37:37,840
Die erin zit.

748
00:37:38,360 --> 00:37:40,820
Is omdat er te weinig can do in zit.

749
00:37:41,060 --> 00:37:42,600
We praten er zoveel over.

750
00:37:43,500 --> 00:37:44,260
Als jij gewoon zegt.

751
00:37:44,300 --> 00:37:45,180
Ik schroom mijn mouwen op.

752
00:37:45,200 --> 00:37:46,620
En ik ga dit gewoon aanpakken.

753
00:37:47,240 --> 00:37:49,060
Dan ga je zoveel verandering teweeg brengen.

754
00:37:49,060 --> 00:37:50,520
Met wat er nu al is.

755
00:37:53,420 --> 00:37:54,220
Die verandering.

756
00:37:54,560 --> 00:37:56,100
Is niet alleen in ons werken.

757
00:37:56,260 --> 00:37:58,000
Is ook maatschappelijk.

758
00:37:58,640 --> 00:38:02,480
Is er iets waar je van wakker ligt vanwege deze technologie?

759
00:38:04,120 --> 00:38:07,380
Nou ja, als ik ergens van wakker ligt, is dat we er denk ik te weinig mee doen.

760
00:38:10,100 --> 00:38:13,020
Kijk, alles heeft zijn voeren en zijn nadelen.

761
00:38:13,240 --> 00:38:16,200
En natuurlijk, je kan jou ook heel erg verkeerd gebruiken.

762
00:38:16,230 --> 00:38:17,580
Je kan er allemaal slechte dingen mee doen.

763
00:38:18,780 --> 00:38:22,240
Ik geloof bottomline dat het wel echt een net positief is.

764
00:38:22,540 --> 00:38:24,760
Gewoon voor Nederland, voor de wereld, voor de mensen.

765
00:38:26,740 --> 00:38:31,120
En wat ik gewoon zie is dat we er heel veel vanuit een soort angst de hele tijd naar kijken.

766
00:38:31,780 --> 00:38:38,000
En dat we heel erg bezig zijn met, we moeten van tevoren eigenlijk al alle rules en guidelines,

767
00:38:39,050 --> 00:38:41,280
dat soort dingen vastgelegd voordat we überhaupt iets gaan doen.

768
00:38:41,700 --> 00:38:44,220
En ik denk dat dat gewoon heel erg remmend is voor de potentie.

769
00:38:44,700 --> 00:38:49,920
En als je er gewoon ingaat met, zoals wij dat ook altijd doen, natuurlijk wil je het netjes doen, natuurlijk wil je het ethisch doen.

770
00:38:50,420 --> 00:38:52,800
Echt geen vraag over mogelijk.

771
00:38:53,380 --> 00:38:55,480
Alleen je moet op een gegeven moment gewoon je handen vuil maken.

772
00:38:55,600 --> 00:38:58,100
En het gewoon gaan doen om te weten waar je het echt over hebt.

773
00:38:58,460 --> 00:39:01,520
En dan gaandeweg kan je dat hele framework en ding gaan opbouwen.

774
00:39:03,000 --> 00:39:04,520
En dan kom je gewoon een stuk verder.

775
00:39:05,200 --> 00:39:10,400
En dan zie je ook dat het nu al veel meer waarde kan gaan leveren.

776
00:39:10,900 --> 00:39:12,700
Dus waar ik van wakker lig.

777
00:39:12,820 --> 00:39:15,980
Is dat we gewoon te veel nu aan het filosoferen zijn.

778
00:39:16,919 --> 00:39:18,820
Over wat er potentieel allemaal mis kan gaan.

779
00:39:18,860 --> 00:39:20,340
En hoe we het nu nog verder kunnen indammen.

780
00:39:20,480 --> 00:39:22,200
En volgens echt niks aan het doen zijn met elkaar.

781
00:39:22,560 --> 00:39:25,880
Ja, duidelijk. Heel goed.

782
00:39:27,700 --> 00:39:36,660
Wat zijn in de techniek, wat zijn daar de uitdagingen die je gezien hebt bij de implementaties die jullie gedaan hebben?

783
00:39:39,020 --> 00:39:44,520
Mijn algemene filosofie en de engineers uit het team gaan het echt een hele vervelende opmerking doen.

784
00:39:44,580 --> 00:39:49,220
Maar ik zeg altijd, de techniek is nooit de bottleneck.

785
00:39:49,220 --> 00:39:50,340
De techniek is nooit de uitdaging.

786
00:39:50,560 --> 00:39:51,740
Natuurlijk, je hebt daar uitdagingen.

787
00:39:52,550 --> 00:39:55,900
Ik ben zelf ook AI machine learning engineer geweest.

788
00:39:55,900 --> 00:39:56,980
Ik ben zelf ook developer geweest.

789
00:39:56,980 --> 00:39:58,420
Dus ik know the struggle.

790
00:40:00,360 --> 00:40:04,340
Maar zeker voor die toepassingen waar die bedrijven werken naar kijken.

791
00:40:04,520 --> 00:40:06,700
De techniek is echt nooit de limitatie.

792
00:40:07,870 --> 00:40:09,780
Het zijn hele vette puzzels om op te lossen.

793
00:40:10,370 --> 00:40:13,640
Maar het zit hem zo vaak op een manier in het organisatorische.

794
00:40:14,840 --> 00:40:17,420
Dat je met elkaar moet navigeren.

795
00:40:18,340 --> 00:40:20,720
Kijk, natuurlijk hebben we wel eens last van datakwaliteit issues gehad.

796
00:40:20,760 --> 00:40:21,620
Maar daar kan je wat omheen.

797
00:40:22,200 --> 00:40:27,760
Of dat we hele zware modellen eigenlijk heel low latency wilden laten draaien.

798
00:40:28,160 --> 00:40:31,620
Als je bijvoorbeeld met de computervisie werkt, op heel veel verschillende beelden tegelijk.

799
00:40:31,740 --> 00:40:34,520
Dan wil je niet dat die kosten uit de pan stijgen.

800
00:40:34,620 --> 00:40:37,940
Dus dan ga je kijken hoe je zo'n model nou eigenlijk een stuk efficiënter kan maken.

801
00:40:40,379 --> 00:40:42,560
Of infrastructuurwijs, als je maar gewoon een hele kleine bandbreedte hebt.

802
00:40:42,660 --> 00:40:44,580
Waar je over wat kan communiceren met elkaar.

803
00:40:44,740 --> 00:40:46,500
Hoe ga je dat nou zo efficiënt mogelijk doen?

804
00:40:46,920 --> 00:40:50,560
Dus daar zitten inderdaad allemaal van dat soort uitdagingen in.

805
00:40:52,240 --> 00:40:54,420
Maar die zijn altijd op te lossen.

806
00:40:54,560 --> 00:40:55,880
Ja, mooi.

807
00:40:58,020 --> 00:41:00,420
Ik kijk nog even voor...

808
00:41:03,859 --> 00:41:04,460
Wat...

809
00:41:05,540 --> 00:41:06,120
Ja...

810
00:41:07,600 --> 00:41:14,980
Aan de ene kant zou je kunnen zeggen dat AI net software implementaties zijn.

811
00:41:15,600 --> 00:41:19,520
Maar toch zit daar een wat fundamenteel verschil in.

812
00:41:20,780 --> 00:41:25,140
Merk je dat in het werk wat jullie doen?

813
00:41:26,540 --> 00:41:28,880
Ja, ik denk dat je die uit meerdere hoeken merkt.

814
00:41:28,880 --> 00:41:31,340
Je kan het heel technisch beantwoorden, deze.

815
00:41:31,640 --> 00:41:34,980
Want je hebt een stukje dat niet deterministisch bijvoorbeeld wat erin zit.

816
00:41:37,300 --> 00:41:40,280
Uiteindelijk zit die AI natuurlijk in een vorm van implicatie.

817
00:41:40,280 --> 00:41:42,340
Dus daar zit een net stukje software omheen.

818
00:41:42,580 --> 00:41:46,980
En dan kan je misschien wat discussies voeren over waar het ene dan begint en waar het andere eindigt.

819
00:41:47,100 --> 00:41:53,600
Maar uiteindelijk heb je natuurlijk gewoon die, ik zeg altijd tegen die technische mensen,

820
00:41:53,620 --> 00:41:57,620
die AI moet ergens leven in de digitale wereld, dat moet je bouwen.

821
00:41:58,240 --> 00:42:03,460
Maar ik denk inderdaad uit de bedrijfsmatige, of vanuit de proceshoek,

822
00:42:04,060 --> 00:42:12,240
dat je hem daar veel meer merkt, omdat je met AI gewoon hele andere dingen kan doen dan met klassieke software.

823
00:42:12,620 --> 00:42:14,420
voor klassieke automatisering.

824
00:42:14,540 --> 00:42:16,100
Wat gewoon niet in regels te vatten is.

825
00:42:16,540 --> 00:42:18,100
Of wat niet in regels te vatten is.

826
00:42:18,120 --> 00:42:21,120
Of wat inderdaad proces overstijgend kan zijn.

827
00:42:22,760 --> 00:42:25,500
En dan dus ook hoe je het benadert.

828
00:42:25,580 --> 00:42:26,600
Hoe je dat aanpakt.

829
00:42:27,680 --> 00:42:30,480
Hoe je dat gewoon implementeert.

830
00:42:31,420 --> 00:42:33,680
Hoe zo'n adoptietraject echt van de gebruiker eruit ziet.

831
00:42:33,680 --> 00:42:34,640
Dat wordt gewoon heel anders.

832
00:42:36,100 --> 00:42:39,060
We zijn van de machine learning gegaan naar de generatieve AI.

833
00:42:39,120 --> 00:42:42,720
en er wordt steeds meer gesproken over AI agents.

834
00:42:44,420 --> 00:42:48,300
Hoe kijk jij naar deze ontwikkeling en waar zie je dat naartoe gaan?

835
00:42:51,900 --> 00:42:58,620
Ik denk, om echt te zeggen, ik vind zelf de AI agent een soort grappige hype.

836
00:42:58,720 --> 00:43:05,020
Het is zeker waarde, maar het hele idee van een agent bestaat al veel langer.

837
00:43:05,200 --> 00:43:07,480
Dat het niet opeens dat dat iets nieuws is.

838
00:43:07,560 --> 00:43:10,940
Het is niet alsof het per se een nieuw type model of techniek of whatever is.

839
00:43:10,940 --> 00:43:12,280
En zo wordt er vaak wel over gesproken.

840
00:43:12,300 --> 00:43:14,340
Dus dat vind ik altijd een beetje grappig.

841
00:43:14,440 --> 00:43:18,120
Ik denk wat het laat zien, dat we het nu opeens over agents met elkaar hebben.

842
00:43:18,540 --> 00:43:28,740
Is dat we het inderdaad zien als iets wat misschien een wat breder takenpakket kan vervangen, vervullen.

843
00:43:29,480 --> 00:43:32,960
En ik denk dat dat een goede ontwikkeling is.

844
00:43:35,340 --> 00:43:43,340
Ik denk dat het feit dat we het over agents hebben betekent dat het collectieve besef wat concreter wordt over wat je met AI kan.

845
00:43:44,280 --> 00:43:46,500
Dus ik denk dat dat iets goeds is.

846
00:43:46,720 --> 00:43:49,880
En ik hoop ook dat dat verder gaat.

847
00:43:50,560 --> 00:43:56,480
En welke naam er dan aankomt, dat zien we vanzelf.

848
00:43:57,260 --> 00:44:07,260
Maar dat dat uiteindelijk wel uitkomt in een soort besef dat hij nog meer kan dan we nu denken dat ze kunnen.

849
00:44:07,300 --> 00:44:12,840
En vooral niet in de soort van hypothetische van er komt nu een nieuwe vettere LLM uit die nog iets sneller kan.

850
00:44:13,120 --> 00:44:16,540
Of weet ik het wel normaal en integraal kan uitrekenen of noem maar op.

851
00:44:17,760 --> 00:44:21,860
Maar dat we dat echt meer kunnen plotten op het werk dat ze doen.

852
00:44:23,580 --> 00:44:33,060
Als je nou een tip zou kunnen geven aan degene die luistert, hoe je bijblijft op dit gebied.

853
00:44:33,090 --> 00:44:34,620
Je zegt al van het gaat heel snel.

854
00:44:36,600 --> 00:44:40,880
Heb jij een manier hoe je daarmee omgaat?

855
00:44:40,970 --> 00:44:46,160
Heb je bepaalde bronnen waar je graag naar kijkt, luistert, leest?

856
00:44:48,100 --> 00:44:55,120
Ik denk op het moment dat je zelf in deze space werkt, dan zou ik zeggen, ga gewoon echt van A tot Z wat doen.

857
00:44:55,700 --> 00:44:58,880
Het doen is de beste manier van bijblijven, want dan weet je gewoon echt wat er speelt.

858
00:44:58,920 --> 00:45:00,460
Dan weet je ook echt wat er nodig is.

859
00:45:01,000 --> 00:45:06,380
En dan kan je denk ik zelf ook veel meer informed mening krijgen over wat er gaande is.

860
00:45:06,400 --> 00:45:09,460
In plaats van dat je gewoon altijd soort van maar consumeert.

861
00:45:11,320 --> 00:45:14,560
Dus gewoon zelf doen, meer doen, doen, experiment.

862
00:45:15,060 --> 00:45:17,320
Ga een keer van A tot Z in je eigen bedrijf opzetten.

863
00:45:17,760 --> 00:45:18,220
Noem maar op.

864
00:45:18,860 --> 00:45:21,180
En als het meer gewoon vanuit interesse is.

865
00:45:21,210 --> 00:45:23,760
Dat je dit een heel interessant vakgebied vindt.

866
00:45:23,880 --> 00:45:24,720
Dan zou ik ook zeggen.

867
00:45:24,990 --> 00:45:26,720
Je kan altijd gewoon een keer proberen.

868
00:45:26,800 --> 00:45:28,260
Om zelf iets te bouwen.

869
00:45:29,679 --> 00:45:31,340
Zeker met al die LLM's die er nu zijn.

870
00:45:31,370 --> 00:45:33,040
Die kunnen je daar echt zeker bij helpen.

871
00:45:33,720 --> 00:45:34,180
En verder.

872
00:45:35,560 --> 00:45:35,700
Ja.

873
00:45:36,919 --> 00:45:38,420
Podcast lezen zoals deze dingen.

874
00:45:39,240 --> 00:45:39,980
Dat is denk ik heel goed.

875
00:45:40,050 --> 00:45:42,560
Maar ik denk voor mezelf wat gewoon werkt.

876
00:45:42,940 --> 00:45:43,240
Het doen.

877
00:45:44,280 --> 00:45:46,900
Nou dat lijkt me een geweldige tip om af te sluiten.

878
00:45:47,340 --> 00:45:47,660
Dank je wel.

879
00:45:47,830 --> 00:45:49,260
Dank je wel dat je in de studio wilde zijn.

880
00:45:49,370 --> 00:45:52,880
Dat je echt mooie voorbeelden hebt gegeven.

881
00:45:54,020 --> 00:45:57,420
Ik was zelf onder de indruk van al die verschillende KPI's.

882
00:45:58,020 --> 00:45:59,220
Naast de productiviteit.

883
00:45:59,700 --> 00:46:00,260
Dus dank daarvoor.

884
00:46:00,620 --> 00:46:00,920
Graag gedaan.

885
00:46:02,300 --> 00:46:03,440
Zo, die klapte erin.

886
00:46:04,720 --> 00:46:05,800
Dank je wel weer voor het luisteren.

887
00:46:06,520 --> 00:46:09,200
Vergeet je niet te abonneren via je favoriete podcast app.

888
00:46:09,360 --> 00:46:09,939
Dan mis je geen aflevering.

889
00:46:10,550 --> 00:46:11,260
Tot de volgende keer.

890
00:46:11,600 --> 00:46:12,800
En die is waarschijnlijk gewoon weer met Niels.


People on this episode