AIToday Live

S07E21 - Van productiviteitswinst naar snellere innovatie

Aigency by Info Support Season 7 Episode 21

Marelle van Beerschoten, eigenaar van Digital Shapers, deelt haar visie op AI in digitale transformatie. Ze bespreekt hoe AI kan bijdragen aan innovatie en productiviteitsgroei binnen organisaties.

Van Beerschoten benadrukt het belang van medewerkersbetrokkenheid en het uitleggen van het 'waarom' achter AI-implementaties. Ze moedigt leiders aan ambitieuzer te denken over de mogelijkheden van AI, niet alleen voor efficiëntie maar ook voor versnelde innovatie.

Naast zakelijke toepassingen ziet Van Beerschoten kansen voor AI om maatschappelijke vraagstukken aan te pakken, zoals betere voorspellingen voor de Voedselbank.

Onderwerpen

  • Rol van AI in digitale transformatie
  • Uitdagingen bij implementatie van AI
  • Datakwaliteit en AI
  • Versnelling van innovatie door AI
  • Maatschappelijke impact van AI
Links

Genoemde entiteiten: Digital Shapers - Voedselbank - NS

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:04,860
In deze aflevering hoor je Marelle van Beerschoten, eigenaar van Digital Shapers,

2
00:00:04,860 --> 00:00:09,180
die haar inzichten deelt over hoe AI niet alleen voor productiviteitswinst,

3
00:00:09,180 --> 00:00:12,540
maar juist voor snellere innovatie ingezet kan worden.

4
00:00:12,540 --> 00:00:16,780
Ze daagt leiders uit om ambitieuzer te denken over de mogelijkheden van AI.

5
00:00:16,781 --> 00:00:23,740
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live.

6
00:00:23,740 --> 00:00:27,640
Met vandaag Marelle van Beerschoten.

7
00:00:27,640 --> 00:00:32,600
Maar voordat we beginnen, je hoort dat mijn stem is nog helemaal wat het wezen moet.

8
00:00:32,600 --> 00:00:33,700
Maar we gaan het er gewoon mee doen.

9
00:00:33,700 --> 00:00:35,740
Mijn naam Joop Snijder, CTO bij Aigency.

10
00:00:35,740 --> 00:00:38,520
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.

11
00:00:38,520 --> 00:00:42,080
Ja, Marelle, leuk dat je bij ons naar de studio bent gekomen.

12
00:00:42,080 --> 00:00:44,540
Zou je je even kort willen voorstellen aan de luisteraars?

13
00:00:45,080 --> 00:00:47,880
Ja, natuurlijk. En dank je wel voor de uitnodiging.

14
00:00:47,880 --> 00:00:48,460
Ja, graag gedaan.

15
00:00:48,460 --> 00:00:50,680
Ik ben nu zo'n 14 jaar ondernemer.

16
00:00:50,680 --> 00:00:52,300
Eigenaar van Digital Shapers.

17
00:00:52,300 --> 00:00:53,540
Daar kennen we elkaar van.

18
00:00:53,540 --> 00:00:56,860
En ik kan zo meteen wel even iets meer vertellen over wat Digital Shapers doet.

19
00:00:56,860 --> 00:00:57,200
Zeker.

20
00:00:57,200 --> 00:01:00,820
Maar heel erg in het kort helpen we in digitale transformatie.

21
00:01:00,820 --> 00:01:05,900
Met name eigenlijk gericht op mensen en medewerkers en organisatie.

22
00:01:05,900 --> 00:01:09,320
Om hen te helpen in transformatie.

23
00:01:09,320 --> 00:01:12,800
En daarnaast ben ik aangesloten bij een denktank, denkwerk.

24
00:01:13,140 --> 00:01:15,020
En ik doe nog een aantal adviesraden.

25
00:01:15,020 --> 00:01:16,480
Ik geef lezingen.

26
00:01:16,480 --> 00:01:18,240
Af en toe dagvoorzitterschappen.

27
00:01:18,240 --> 00:01:20,020
Dus ja, ik denk dat dat het wel is.

28
00:01:20,020 --> 00:01:21,760
Ja, dat is behoorlijk wat.

29
00:01:21,760 --> 00:01:26,860
Jij zegt van, dat je, zo dan.

30
00:01:26,860 --> 00:01:28,580
Digitale transformatie.

31
00:01:28,580 --> 00:01:30,080
Ja, digitale transformatie.

32
00:01:30,080 --> 00:01:33,720
Zou je kunnen uitleggen wat een digitale transformatie eigenlijk is?

33
00:01:33,720 --> 00:01:34,660
Je leest het overal.

34
00:01:34,660 --> 00:01:36,640
Maar er wordt eigenlijk nooit uitgelegd.

35
00:01:36,640 --> 00:01:38,520
Wat is nou eigenlijk digitale transformatie?

36
00:01:39,520 --> 00:01:42,860
Ja, ik denk ook dat mensen het op verschillende manieren uitleggen.

37
00:01:42,860 --> 00:01:48,780
En hoe ik er naar kijk is, is dat je, we hebben te maken met snelle technologische ontwikkelingen.

38
00:01:48,780 --> 00:01:51,360
Dat hoor je natuurlijk iedereen zeggen van, die gaan steeds sneller.

39
00:01:51,360 --> 00:01:52,860
En dat is uniek voor deze tijd.

40
00:01:52,860 --> 00:02:03,820
En ik zie eigenlijk digitale transformatie als een aanpassing of het gebruik maken van de kansen die technologische ontwikkelingen creëren voor een organisatie.

41
00:02:03,820 --> 00:02:08,199
En de aanpassing op eigenlijk het omgaan met die nieuwe technologieën.

42
00:02:08,199 --> 00:02:11,500
Wat niet alleen betekent dat je dat bijvoorbeeld kan gebruiken voor innovatie.

43
00:02:11,500 --> 00:02:14,480
Of om bijvoorbeeld productiviteit te verhogen.

44
00:02:14,480 --> 00:02:16,800
Of bepaalde processen te optimaliseren.

45
00:02:17,380 --> 00:02:21,520
Maar wat ook betekent dat je soms op een andere manier gaat werken in de organisatie.

46
00:02:21,520 --> 00:02:23,680
En dat er andere vaardigheden nodig zijn.

47
00:02:23,680 --> 00:02:26,620
En dit zijn zo even een aantal elementen.

48
00:02:26,620 --> 00:02:26,960
Ja.

49
00:02:26,960 --> 00:02:33,720
Maar ja, zoals ik eigenlijk net al zei, eigenlijk vanuit mijn rol bij Digital Shapers richt ik of richten wij ons dan met name op.

50
00:02:33,720 --> 00:02:36,380
Wat verandert er nou eigenlijk voor mensen in de organisatie?

51
00:02:36,380 --> 00:02:37,080
Ja, precies.

52
00:02:37,080 --> 00:02:47,160
En transformatie betekent dan in mijn optiek dat er gewoon meerdere bewegingen gaande zijn van een huidige situatie naar een toekomstige situatie.

53
00:02:47,160 --> 00:02:47,520
Ja.

54
00:02:47,520 --> 00:02:50,360
Waarbij ik overigens niet denk dat je het ooit afrondt.

55
00:02:50,360 --> 00:02:50,580
Nee.

56
00:02:50,580 --> 00:02:51,840
Ja.

57
00:02:51,840 --> 00:02:54,080
Ja, jullie hebben het natuurlijk ook over AI.

58
00:02:54,080 --> 00:02:56,880
Daar gaan we het vandaag ook zeker over hebben.

59
00:02:56,880 --> 00:02:57,900
Is althans mijn verwachting.

60
00:02:57,900 --> 00:02:58,300
Zeker.

61
00:02:58,300 --> 00:03:03,080
Ja, een aantal jaar geleden hadden we het over andere onderwerpen of andere technologieën.

62
00:03:04,460 --> 00:03:08,140
Bijvoorbeeld design thinking was een aantal jaar geleden waar we het met z'n allen daarover hebben.

63
00:03:08,140 --> 00:03:09,980
Echt een andere manier ook van werken.

64
00:03:09,980 --> 00:03:12,760
En bijvoorbeeld het ontwerp van nieuwe producten.

65
00:03:12,760 --> 00:03:17,040
En zo blijven er ontwikkelingen waardoor denk ik een organisatie in die zin altijd in beweging is.

66
00:03:17,040 --> 00:03:17,400
Zeker.

67
00:03:17,400 --> 00:03:21,580
Want op een gegeven moment wordt AI ook zeg maar normaal voor iedereen.

68
00:03:21,580 --> 00:03:25,100
En dan hebben we de volgende golf die eigenlijk voor ons staat.

69
00:03:25,100 --> 00:03:26,600
Quantum hebben we bijvoorbeeld.

70
00:03:26,600 --> 00:03:28,140
Oh ja, dat soort dingen.

71
00:03:28,140 --> 00:03:28,840
Ja, precies.

72
00:03:28,840 --> 00:03:33,940
En welke rol speelt dan als we daar meteen op ingaan?

73
00:03:34,220 --> 00:03:36,800
Kunstmatige intelligentie in die digitale transformatie?

74
00:03:36,800 --> 00:03:40,840
Ja, ik denk het is wel het onderwerp van het moment.

75
00:03:40,840 --> 00:03:41,160
Ja.

76
00:03:41,160 --> 00:03:46,860
Als je het mij vraagt dan krijgen we op dit moment van onze opdrachtgevers gewoon de meeste vragen naar.

77
00:03:46,860 --> 00:03:48,620
Ja, ofwel.

78
00:03:48,620 --> 00:03:50,980
Wat kan ik met kunstmatige intelligentie?

79
00:03:50,980 --> 00:03:52,760
Dus bijvoorbeeld nog best wel in de beginfase.

80
00:03:53,420 --> 00:03:55,600
Hoe gaat mijn organisatie erdoor veranderen?

81
00:03:55,600 --> 00:03:57,900
Hoe kan ik de juiste keuzes hierin maken?

82
00:03:57,900 --> 00:03:58,640
Wat kan ik zelf?

83
00:03:58,640 --> 00:04:02,040
Wat moet ik met andere partijen qua samenwerking?

84
00:04:02,040 --> 00:04:02,480
Ja.

85
00:04:02,480 --> 00:04:07,280
Maar ook wordt er heel veel gesproken over datagedreven werken.

86
00:04:07,280 --> 00:04:08,100
Oh ja.

87
00:04:08,160 --> 00:04:12,480
En die twee zijn natuurlijk niet precies hetzelfde, maar wel met elkaar verbonden.

88
00:04:12,480 --> 00:04:12,940
Ja.

89
00:04:13,340 --> 00:04:19,260
En dus dat zijn wel de thema's die op dit moment het meest leven, althans in mijn ervaring.

90
00:04:19,260 --> 00:04:23,760
En wat verstaan jullie onder datagedreven werken?

91
00:04:23,760 --> 00:04:25,680
Want het is nog een beetje een vaag begrip.

92
00:04:25,680 --> 00:04:29,640
En als ik er met klanten en collega's over praat, dan hebben we wel verschillende beelden bij.

93
00:04:29,640 --> 00:04:31,400
Hoe kijken jullie daartegen aan?

94
00:04:31,400 --> 00:04:32,320
Wat verstaan jullie onder?

95
00:04:32,960 --> 00:04:37,440
Ik vertelde net dat ik ook aangesloten ben bij die Denkwerk.

96
00:04:37,440 --> 00:04:42,120
En een aantal jaar geleden, volgens mij was dat 2021, hebben wij een onderzoek gedaan.

97
00:04:42,120 --> 00:04:44,500
We doen ieder half jaar een onderzoek en dan publiceren we daarover.

98
00:04:44,500 --> 00:04:48,440
Toen hebben we een onderzoek gedaan naar de datagedreven economie.

99
00:04:48,440 --> 00:04:51,320
Of de datagedreven toekomst, hebben we het rapport uiteindelijk genoemd.

100
00:04:51,320 --> 00:04:52,820
Dus overigens ook te lezen online.

101
00:04:52,820 --> 00:04:59,240
En toen hebben we eigenlijk gekeken met elkaar naar in hoeverre kunnen we nou nog spreken over een fysieke wereld.

102
00:04:59,240 --> 00:05:00,820
Virtuele wereld.

103
00:05:00,820 --> 00:05:02,300
Of zitten we nou, of is het met elkaar?

104
00:05:02,640 --> 00:05:04,380
Ja, loopt het al door elkaar heen.

105
00:05:04,380 --> 00:05:10,520
En toen hadden we het ook met name over de snelle opkomst en de snelle doorontwikkelingen van het internet der dingen.

106
00:05:10,520 --> 00:05:16,160
En ik haal dat nog vaak aan als ik het ook heb over waarom de datagedreven werken zo belangrijk is.

107
00:05:16,160 --> 00:05:22,340
Omdat ik denk doordat zo ontzettend veel objecten met het internet verbonden zijn en zo ontzettend veel meer.

108
00:05:22,340 --> 00:05:26,500
Ik geloof dat 90% van het internet gebruikt wordt door objecten, niet door mensen.

109
00:05:26,500 --> 00:05:27,300
Ja, bijzondere.

110
00:05:27,300 --> 00:05:28,840
Inmiddels.

111
00:05:28,840 --> 00:05:32,320
Ja, dat betekent eigenlijk dat er ontzettend veel data wordt gegenereerd.

112
00:05:32,320 --> 00:05:34,760
En ook gecommuniceerd.

113
00:05:35,060 --> 00:05:41,540
En dat er allerlei acties en beslissingen genomen worden zonder dat mensen daar soms wel tussenkomst hebben, maar soms ook niet.

114
00:05:41,540 --> 00:05:52,180
Dus ja, vanuit die ontwikkeling, en dan ga ik heel snel nu, maar hebben we in dat stuk ook betoogd van ja, we leven eigenlijk in een datagedreven wereld.

115
00:05:52,380 --> 00:05:52,500
Ja.

116
00:05:52,860 --> 00:06:09,660
En ik zie dat organisaties ook met deze ontwikkeling te maken hebben en steeds meer, dat is even de meest simpele uitleg natuurlijk, naast gewone ervaring en intuïtie gebruik kunnen maken van business intelligence platformen, maar ook data science.

117
00:06:09,760 --> 00:06:11,920
En dan ga je al wat meer richting kunstmatige intelligentie.

118
00:06:11,920 --> 00:06:16,200
Ja, om eigenlijk hun beslissingen te kunnen nemen.

119
00:06:16,540 --> 00:06:20,680
Bijvoorbeeld te verklaren wat er in het verleden is gebeurd of wat ze denken dat er in de toekomst gaat gebeuren.

120
00:06:20,680 --> 00:06:22,540
Hoe je misschien bepaalde uitkomsten kan sturen.

121
00:06:22,540 --> 00:06:26,600
En zeker in het laatste geval ga je dan richting kunstmatige intelligentie.

122
00:06:27,760 --> 00:06:42,660
Maar ja, om dat even zo af te ronden, zie ik dat nou ja, eigenlijk van leidinggevende tot en met mensen die werken aan de machine bijvoorbeeld, of ergens anders in de uitvoering, iedereen steeds meer te maken gaat krijgen met onderdelen van dat datagedreven werken.

123
00:06:42,660 --> 00:06:48,100
Of het nou goed databeheer is, of echt het maken van besluiten op dat vlak.

124
00:06:48,100 --> 00:06:48,740
Hoi.

125
00:06:48,740 --> 00:06:54,580
Dus echt groeien in het toepassen en gebruiken van de data die beschikbaar is in alle dagelijkse werkzaamheden.

126
00:06:55,040 --> 00:07:06,440
Ja, en ik geloof eigenlijk dus ook dat als je wilt kunnen concurreren en innoveren richting de toekomst, dat toegang tot relevante data, diverse data, daar echt essentieel voor is.

127
00:07:06,440 --> 00:07:07,020
Zeker.

128
00:07:07,020 --> 00:07:09,700
Zonder data geen AI, hè?

129
00:07:09,700 --> 00:07:10,020
Nee.

130
00:07:10,020 --> 00:07:11,660
Precies dat.

131
00:07:11,660 --> 00:07:11,960
Ja.

132
00:07:11,960 --> 00:07:24,600
En je organiseert ook dat mensen uit het bedrijfsleven met je mee op pad kunnen langs andere bedrijven om te kijken naar de digitale transformatie.

133
00:07:24,720 --> 00:07:27,500
En hoe zij ook op dit moment omgaan met AI.

134
00:07:27,500 --> 00:07:29,160
Zou je daar wat over kunnen vertellen?

135
00:07:29,160 --> 00:07:34,960
Ja, we organiseren inderdaad sinds een aantal jaar inspiratiereizen, zo noemen we het, inspiratiereis.

136
00:07:34,960 --> 00:07:43,880
En misschien wel aardig om dat even te vertellen, want ja, ik ben ondernemer en jullie kennen dat vast ook wel.

137
00:07:45,380 --> 00:07:51,980
En wat ik daar een van de leukste dingen van vind, is dat je eigenlijk zelf iedere dag opnieuw kan bedenken van, ja, wat vind ik nou eigenlijk leuk om te doen?

138
00:07:51,980 --> 00:07:52,220
Ja.

139
00:07:52,720 --> 00:07:56,660
En dat betekent, dan moet je natuurlijk ook uiteindelijk wel geld mee kunnen verdienen, hè?

140
00:07:56,660 --> 00:07:58,880
Of in ieder geval de schoorsteen rokend houden.

141
00:07:58,880 --> 00:07:59,360
Precies.

142
00:07:59,360 --> 00:08:06,800
Maar zo hebben we ooit bedacht, toen we bij een klant bezig waren met eigenlijk ondersteuning bij een strategietraject,

143
00:08:07,360 --> 00:08:13,600
dat we dachten van, ja, wat er eigenlijk waar echt behoefte aan zou zijn, is om nou eens te leren van andere organisaties hoe zij met bepaalde thema's omgaan.

144
00:08:13,600 --> 00:08:22,360
En vaak zie ik, het woord digital zit in Digital Shapers, dus wij zijn veel bezig met digitale transformatie en veranderingen.

145
00:08:22,360 --> 00:08:25,560
Maar vaak staat dat niet meer op zich bij organisaties.

146
00:08:25,560 --> 00:08:35,299
En zeker de afgelopen jaren zijn de meeste organisaties toch wel bezig geweest met een combinatie van digitale transformatie en bijvoorbeeld een bijdrage in energietransitie.

147
00:08:36,340 --> 00:08:44,000
En juist in die inspiratiereis gaan wij op zoek naar overlappende thema's die spelen op, nou zeg even, boardroom niveau.

148
00:08:44,000 --> 00:08:50,140
Dus we hebben het wel echt ingestoken voor een doelgroep van leidinggevenden, directieleden, managementleden.

149
00:08:50,140 --> 00:08:59,540
En ik zie dat het gewoon heel goed werkt, ook om te horen van andere organisaties en juist soms van buiten de sector.

150
00:09:00,500 --> 00:09:06,680
Soms, het kan ook een ketenpartner zijn, maar het is ook heel verfrissend om naar een andere organisatie toe te gaan.

151
00:09:06,680 --> 00:09:10,080
Om te horen van ja, met wat voor een uitdaging spelen zij op deze thema's.

152
00:09:10,080 --> 00:09:16,440
En bijvoorbeeld die combinatie van datagedreven werken en een bijdrage willen hebben en bijvoorbeeld CO2 willen besparen.

153
00:09:16,440 --> 00:09:17,100
Ik zeg maar even iets.

154
00:09:17,100 --> 00:09:24,000
Ja, dan kun je heel veel leren van hoe andere organisaties daarin concrete voorbeelden hebben, maar ook hoe ze er leiding aan geven.

155
00:09:24,580 --> 00:09:30,980
En daar kan ik nog wel even een voorbeeld van geven, want we zaten eens met een commercieel directieteam.

156
00:09:30,980 --> 00:09:36,260
En zij vonden het eigenlijk belangrijk dat hun organisatie, dus dat de medewerkers meer datagedreven gingen werken.

157
00:09:36,260 --> 00:09:44,640
Maar uit het traject kwam heel erg naar voren dat de medewerkers eigenlijk ook niet een idee hadden van hoe het management dat echt voor zich zag.

158
00:09:44,640 --> 00:09:48,020
Ze vonden ook dat ze daar geen echt voorbeeld aan gaven.

159
00:09:48,020 --> 00:09:52,760
Dus dat ze ook in reguliere overleggen bijvoorbeeld helemaal niet vaak een BI-rapport laten zien.

160
00:09:52,980 --> 00:09:53,180
Precies.

161
00:09:53,180 --> 00:09:59,720
En toen hebben we dat teruggekoppeld en toen zeiden ze eigenlijk ook wel, het managementteam ook wel,

162
00:09:59,720 --> 00:10:03,560
van ja, we hebben eigenlijk ook niet een eenduidig beeld van wat is dan datagedreven werken.

163
00:10:03,560 --> 00:10:05,580
En hoe gaan we daar dan dus goed leiding aan geven.

164
00:10:05,580 --> 00:10:10,420
Ja, zeker in dat soort gevallen is het gewoon hartstikke goed om te gaan kijken ook van hoe doet een ander bedrijf dat.

165
00:10:10,420 --> 00:10:13,460
En wat kunnen we daar uithalen en wat niet.

166
00:10:13,460 --> 00:10:15,680
Dus zo is die reis ontstaan.

167
00:10:15,680 --> 00:10:20,720
En wij dachten, nou we gaan dit gewoon doen, want we krijgen gewoon een kijkje in de keuken van anderen.

168
00:10:21,100 --> 00:10:25,400
En dat is succesvol gebleken en dat zijn we dus gaan herhalen.

169
00:10:25,400 --> 00:10:31,500
Doen we eigenlijk al een aantal jaar voor directieteams, managementteams van specifieke opdrachtgevers.

170
00:10:31,500 --> 00:10:37,060
We hebben nu afgelopen, nou eigenlijk twee weken geleden, voor het eerst een open inspiratiereis georganiseerd.

171
00:10:37,060 --> 00:10:38,940
En daar hebben wij het thema vastgezet.

172
00:10:38,940 --> 00:10:44,160
Dus daar hebben wij gezegd, nou we willen het hebben over AI en waar mogelijk specifiek gen AI.

173
00:10:44,160 --> 00:10:45,520
Generative AI.

174
00:10:45,520 --> 00:10:49,040
Dus zeg maar even de taalmodellen in het Nederlands.

175
00:10:49,040 --> 00:10:55,680
En daar hebben we een diverse groep van dertien directeuren meegenomen van verschillende organisaties.

176
00:10:55,980 --> 00:11:00,460
En daar hebben we ons laten inspireren op dat thema door organisaties die het zelf toepassen.

177
00:11:00,460 --> 00:11:04,480
Die bijvoorbeeld ook te maken hebben met eenzelfde, dat is overigens ook vaak goed hè.

178
00:11:04,480 --> 00:11:07,380
Dus wel organisaties die te maken hebben met eenzelfde legacy bijvoorbeeld.

179
00:11:07,380 --> 00:11:14,160
Dus dezelfde geschiedenis of misschien uitdagingen op het gebied van organisatie of infrastructuur.

180
00:11:14,280 --> 00:11:21,240
Maar ook de nieuwkomers of de bedrijven die recent gestart zijn en heel hard gaan op dat gebied.

181
00:11:21,240 --> 00:11:22,600
En die technologie goed inzetten.

182
00:11:22,600 --> 00:11:27,120
Dus echt verschillende perspectieven, verschillende volwassenheidsniveau met hetzelfde vraagstuk.

183
00:11:27,120 --> 00:11:29,300
In dit geval dan AI, een generative AI.

184
00:11:29,300 --> 00:11:29,880
Ja.

185
00:11:29,880 --> 00:11:37,020
Ik was wel nieuwsgierig, zijn er bepaalde vraagstukken die boven tafel komen drijven in dat soort gesprekken van de rode draad.

186
00:11:37,020 --> 00:11:39,340
Dit zijn wel de vraagstukken die leven bij die organisaties.

187
00:11:39,340 --> 00:11:49,680
Ja, wat ik veel hoorde is dat meer dan, zeg maar, dat merk ik eigenlijk, en daar ben ik me bewust van,

188
00:11:49,680 --> 00:11:53,220
omdat wij ons juist met Digital Shapers dan zo richten op mensen en organisatie,

189
00:11:53,220 --> 00:12:00,220
hoorde ik veel van dat deze transitie en zeker deze ontwikkelingen nu heel veel vragen van mensen en organisatie.

190
00:12:00,220 --> 00:12:05,240
En dat er dus eigenlijk wel wordt aangenomen dat de technologie wel goed komt.

191
00:12:06,280 --> 00:12:16,260
Maar dat het heel veel vraagt qua adoptievermogen en toch anders werken, anders denken van mensen, van medewerkers.

192
00:12:16,260 --> 00:12:18,860
En dus dat daar heel veel focus op komt te liggen.

193
00:12:18,860 --> 00:12:23,900
Dus daar zijn veel vragen over gesteld en is ook zeker veel over verteld.

194
00:12:23,900 --> 00:12:30,260
En ik denk nog niet dat het dan per se beantwoord wordt, want dat is ook dan weer een uitdaging.

195
00:12:30,260 --> 00:12:34,040
En dus wordt eigenlijk ook gezegd van, nou, er is veel behoefte aan goed verandermanagement.

196
00:12:34,040 --> 00:12:36,940
Nou, precies iets waar wij ons mee bezighouden.

197
00:12:36,940 --> 00:12:38,780
Dus daar heb ik ook wel vragen over terug gesteld.

198
00:12:38,780 --> 00:12:42,660
Zijn je dan nu tevreden over hoe jullie dat doen in de organisatie?

199
00:12:42,660 --> 00:12:46,000
Of ben je ook bereid om daar budget voor vrij te maken?

200
00:12:46,000 --> 00:12:52,180
Was er, ik weet niet of dat gebeurt, zeg maar, is er een bedrijf geweest, zonder die te noemen,

201
00:12:52,180 --> 00:12:55,220
die hebben gezegd van, ja, maar wij zijn in deze valkuil gestapt.

202
00:12:55,220 --> 00:12:57,480
Want zo moet je het niet doen.

203
00:12:59,960 --> 00:13:05,820
Nou, in deze, dus nu denk ik aan die recente ervaringen, daar heb ik het niet zozeer gehoord.

204
00:13:05,820 --> 00:13:11,140
Maar ik ken wel voorbeelden van, nou ja, die ik eigenlijk eerder, waar ik eerder tegenaan ben gelopen.

205
00:13:11,140 --> 00:13:13,700
En dat is denk ik wel aardig om te delen.

206
00:13:13,700 --> 00:13:20,060
En dat was bijvoorbeeld dat er veel mensen training hebben gekregen in bepaalde programmeertalen.

207
00:13:20,060 --> 00:13:20,600
Oh ja.

208
00:13:21,320 --> 00:13:26,340
En vooral, en dat zie ik wel vaker, dat er gezegd wordt van, ja, maar we hebben toch iedereen getraind.

209
00:13:26,340 --> 00:13:26,720
Ja.

210
00:13:26,720 --> 00:13:35,200
En dat herken ik nu heel sterk, want daar kan het wel vaker misgaan, omdat mensen dan wel training krijgen,

211
00:13:35,200 --> 00:13:38,040
maar dan toch eigenlijk nog iets niet toepassen in hun werk.

212
00:13:38,040 --> 00:13:39,540
Of nog niet laten zien.

213
00:13:39,960 --> 00:13:44,920
En dat is vaak een valkuil van, ja, eigenlijk voorbij gaan een stukje bewustzijn.

214
00:13:44,920 --> 00:13:45,580
Ja.

215
00:13:45,580 --> 00:13:52,180
En ook het beantwoorden van de vragen van, waarom vinden we het zo belangrijk dat we nu deze vaardigheid gaan ontwikkelen?

216
00:13:52,180 --> 00:13:52,360
Ja.

217
00:13:52,360 --> 00:13:53,760
Of dat we nu iets anders gaan doen.

218
00:13:53,760 --> 00:13:56,460
Want waarom is dat dan belangrijk voor de organisatie?

219
00:13:56,460 --> 00:13:57,700
En wat gebeurt als we het niet doen?

220
00:13:57,700 --> 00:13:58,160
Precies.

221
00:13:58,160 --> 00:13:59,620
Of waarom is het belangrijk voor jou?

222
00:13:59,620 --> 00:14:00,800
En hoe verandert jouw werk?

223
00:14:00,800 --> 00:14:01,220
Ja.

224
00:14:01,220 --> 00:14:02,980
De what's in it for me vraag.

225
00:14:03,340 --> 00:14:09,980
Dus dat gesprek en dat niet voorbij gaan is wel echt heel belangrijk voordat je gaat trainen.

226
00:14:09,980 --> 00:14:13,340
En als je wil dat mensen het ook kunnen toepassen.

227
00:14:13,340 --> 00:14:13,820
Ja.

228
00:14:13,820 --> 00:14:15,740
Volgens mij moeten mensen natuurlijk ook gelegenheid krijgen.

229
00:14:15,740 --> 00:14:16,200
Precies.

230
00:14:16,200 --> 00:14:16,800
Ja.

231
00:14:16,800 --> 00:14:18,640
Maar dat is wel een goede.

232
00:14:18,640 --> 00:14:24,700
Het gat tussen een training krijgen en wanneer je het daadwerkelijk zelf nodig hebt of gebruikt,

233
00:14:24,700 --> 00:14:27,940
dat is vaak zo groot dat je het eigenlijk al gewoon weer kwijt bent.

234
00:14:27,940 --> 00:14:29,680
Ja, en dat vind ik wel aardig.

235
00:14:29,680 --> 00:14:32,240
Daar heb ik wel een paar mooie voorbeelden van gezien in de afgelopen twee weken.

236
00:14:32,620 --> 00:14:37,880
Zoals een organisatie en die organiseerde de Night of the Prompts.

237
00:14:37,880 --> 00:14:39,040
Oh zo, oh ja.

238
00:14:39,040 --> 00:14:39,800
Oké, cool.

239
00:14:39,800 --> 00:14:40,340
Cool.

240
00:14:40,340 --> 00:14:43,120
Ja, en dat spreekt dat gelijk aan.

241
00:14:43,120 --> 00:14:43,520
Ja.

242
00:14:43,520 --> 00:14:44,860
En dan denk ik, hé, leuk bedacht.

243
00:14:44,860 --> 00:14:47,000
Weet je, ook leuke storytelling eigenlijk meteen.

244
00:14:47,000 --> 00:14:47,340
Ja.

245
00:14:47,340 --> 00:14:52,420
Om mensen dus op een aantrekkelijke of een leuke manier aan te trekken.

246
00:14:52,420 --> 00:14:52,780
Ja.

247
00:14:52,780 --> 00:14:55,780
Om mee te doen, om beter te leren prompten.

248
00:14:55,780 --> 00:14:56,100
Ja.

249
00:14:56,100 --> 00:14:59,260
Ik ben er eigenlijk ook al zelf iets bij gaan verzinnen.

250
00:15:00,220 --> 00:15:03,320
En daar geloof ik dus ook wel heel erg in, hè.

251
00:15:03,320 --> 00:15:06,100
Van hoe kan je het nou leuk en aantrekkelijk maken.

252
00:15:06,100 --> 00:15:06,520
Ja.

253
00:15:06,520 --> 00:15:09,240
En mensen zelf uitnodigen om aan iets mee te gaan doen.

254
00:15:09,240 --> 00:15:09,480
Ja.

255
00:15:10,480 --> 00:15:13,400
Zonder dus zozeer te focussen op wat iemand nog niet kan.

256
00:15:13,400 --> 00:15:14,740
Of dat je moet trainen.

257
00:15:14,740 --> 00:15:17,800
Of direct iets moet laten zien.

258
00:15:17,800 --> 00:15:18,220
Ja.

259
00:15:18,220 --> 00:15:20,840
En het gevaar is natuurlijk nu, hè.

260
00:15:20,840 --> 00:15:23,880
Dus de hele hype zit rondom AI geletterdheid nu.

261
00:15:24,920 --> 00:15:30,060
Dat er heel veel dwang en drang nu op de medewerkers komt.

262
00:15:30,060 --> 00:15:31,880
Om allemaal maar trainingen te gaan volgen.

263
00:15:31,880 --> 00:15:34,480
Met mogelijk de gevolgen die jij aangeeft.

264
00:15:34,480 --> 00:15:35,260
Ja.

265
00:15:35,260 --> 00:15:37,220
En daar heb ik nog wel twee.

266
00:15:37,220 --> 00:15:40,320
Ja, dan schieten er gelijk allerlei gedachten door.

267
00:15:40,320 --> 00:15:41,000
Ja, kom maar.

268
00:15:41,000 --> 00:15:42,440
Maar er zijn er twee die ik wil noemen.

269
00:15:42,440 --> 00:15:45,400
Een ander voorbeeld die ik recent van de organisatie heb gehoord.

270
00:15:45,400 --> 00:15:50,780
En eigenlijk waren er meerdere varianten van die we dan in die afgelopen reis hebben gehoord.

271
00:15:51,300 --> 00:15:54,500
Dus zoals één partij niet had, niet een A-team, maar een AI-team.

272
00:15:54,500 --> 00:15:54,820
Ja.

273
00:15:54,820 --> 00:15:59,700
En eigenlijk ook gezegd van ja, wie zijn nou de enthousiastelingen in het bedrijf rondom AI?

274
00:15:59,700 --> 00:16:04,500
En die geven we de gelegenheid om eigenlijk in dat voorlopers-team te zitten.

275
00:16:04,500 --> 00:16:06,360
En daar gewoon heel veel tijd aan te kunnen besteden.

276
00:16:06,360 --> 00:16:08,360
Om toegang te hebben tot tools en dingen te kunnen uitproberen.

277
00:16:08,360 --> 00:16:13,960
Maar ook een taak om eigenlijk andere mensen in de organisatie te schaduwen.

278
00:16:13,960 --> 00:16:19,500
En uiteindelijk dan ook te gaan vertellen van hey, ik denk dat ik hier een idee zie voor een verbetering.

279
00:16:20,180 --> 00:16:22,720
Met behulp van een toepassing op het gebied van AI.

280
00:16:22,720 --> 00:16:25,980
Dus dat, ik vond het een hele mooie manier.

281
00:16:25,980 --> 00:16:27,740
En ik heb daar wat varianten van gezien.

282
00:16:27,740 --> 00:16:29,460
En ik geloof daar wel heel sterk in.

283
00:16:29,460 --> 00:16:34,820
Dat je dus ook de enthousiasteling op die manier kan aansporen om de organisatie vooruit te helpen.

284
00:16:34,820 --> 00:16:37,960
Maar dat betekent natuurlijk ook wel dat je rekening moet houden.

285
00:16:37,960 --> 00:16:41,280
En moet begeleiden dat er dus mensen geschaduwd worden.

286
00:16:41,280 --> 00:16:41,700
Precies.

287
00:16:41,920 --> 00:16:42,160
Ja.

288
00:16:42,160 --> 00:16:43,940
En dat zijn wel ziel.

289
00:16:43,940 --> 00:16:44,400
Dat jij zei schaduw.

290
00:16:44,400 --> 00:16:45,520
En ik denk meteen oeh.

291
00:16:45,520 --> 00:16:46,080
Weet je van.

292
00:16:46,080 --> 00:16:49,100
Zit er iemand om de hele dag over mijn schouder mee te kijken.

293
00:16:49,100 --> 00:16:50,240
Is dat het idee?

294
00:16:50,240 --> 00:16:51,940
Ja, er werd wel gelijk een vraag gesteld.

295
00:16:51,940 --> 00:16:53,100
Ook aan de CEO van.

296
00:16:53,100 --> 00:16:54,340
Ben jij ook al een keer gesteld?

297
00:16:54,340 --> 00:16:54,480
Ja.

298
00:16:54,480 --> 00:16:54,780
Oh ja.

299
00:16:56,920 --> 00:17:00,100
Maar ja, dat is dus heel terecht wat jij zegt.

300
00:17:00,100 --> 00:17:03,480
En dat ervaar ik in de gehele digitale transformatie.

301
00:17:03,480 --> 00:17:05,819
En niet alleen als we het nu hebben over het onderwerp AI.

302
00:17:05,819 --> 00:17:09,560
Maar daarom is het dus zo belangrijk om met mensen het gesprek aan te gaan.

303
00:17:09,560 --> 00:17:11,280
En een stuk angst weg te nemen.

304
00:17:11,280 --> 00:17:14,119
Of gewoon goed reëel ook te luisteren naar weerstand.

305
00:17:14,119 --> 00:17:15,359
Want die is vaak ook reëel.

306
00:17:15,359 --> 00:17:15,359
Absoluut.

307
00:17:15,359 --> 00:17:15,599
Zeker.

308
00:17:15,599 --> 00:17:19,640
En wat wij ook nog wel eens in de praktijk zien.

309
00:17:19,640 --> 00:17:23,780
Is dat er heel makkelijk natuurlijk ook wordt gesproken over van nou deze processen.

310
00:17:23,780 --> 00:17:26,020
Die gaan we volledig anders inrichten.

311
00:17:26,400 --> 00:17:31,060
Waardoor het werk van mensen echt fundamenteel verandert.

312
00:17:31,060 --> 00:17:33,020
Zonder dat er met die mensen gesproken wordt.

313
00:17:33,020 --> 00:17:34,940
Ja, ik denk.

314
00:17:34,940 --> 00:17:36,800
Ik zie daar gelukkig wel een verandering.

315
00:17:36,800 --> 00:17:37,600
Dus de vragen.

316
00:17:37,600 --> 00:17:40,000
Zeg maar een jaar of zes, zeven jaar geleden.

317
00:17:40,000 --> 00:17:42,360
Deden wij bijvoorbeeld ook best wel veel workshops over.

318
00:17:42,360 --> 00:17:45,820
Dat noemen we dan een creative data garage.

319
00:17:45,820 --> 00:17:48,540
Die garage is natuurlijk ook altijd het meest spannend.

320
00:17:48,540 --> 00:17:50,340
Dus gingen we eigenlijk nadenken over.

321
00:17:50,340 --> 00:17:53,720
Of mensen ook helpen in het nadenken over data.

322
00:17:53,720 --> 00:17:54,740
En het gebruik van data.

323
00:17:55,020 --> 00:17:57,180
Om bepaalde strategische uitdagingen aan te pakken.

324
00:17:57,180 --> 00:18:00,460
Ja, en toen was dat nog.

325
00:18:00,460 --> 00:18:04,640
Toen ging het nog veel meer over eigenlijk echt de technologie en de data oplossingen.

326
00:18:04,640 --> 00:18:05,660
En hoe.

327
00:18:05,660 --> 00:18:07,260
Echt de oplossing.

328
00:18:07,260 --> 00:18:08,740
En ook de grote algoritmes.

329
00:18:08,740 --> 00:18:09,640
De innovatieve algoritmes.

330
00:18:10,820 --> 00:18:12,820
En ik denk in deze golf van AI.

331
00:18:12,820 --> 00:18:13,760
Als ik het even zo mag noemen.

332
00:18:13,760 --> 00:18:17,180
En dan heb ik het nu even over de generative AI.

333
00:18:17,180 --> 00:18:20,660
Ja, daar wordt ook al veel meer aandacht gegeven aan.

334
00:18:22,100 --> 00:18:24,620
Ja, de adoptie van slimme AI tools eigenlijk.

335
00:18:24,620 --> 00:18:26,460
Of bijvoorbeeld taalmodellen.

336
00:18:26,460 --> 00:18:30,160
En hoe gaat dat dan de organisatie veranderen?

337
00:18:30,160 --> 00:18:33,880
En hoe kunnen we dan nu al het gesprek starten met de organisatie?

338
00:18:33,880 --> 00:18:36,460
Of bepaalde afdelingen of bepaalde functies.

339
00:18:36,460 --> 00:18:38,740
Om hen ook daarin te betrekken.

340
00:18:38,740 --> 00:18:39,360
Ja.

341
00:18:39,840 --> 00:18:41,920
En een reëel gesprek met elkaar aan te gaan.

342
00:18:41,920 --> 00:18:45,160
Dus ik vind wel dat er meer aandacht is gekomen voor mensen.

343
00:18:45,160 --> 00:18:46,940
Dan een aantal jaar geleden.

344
00:18:46,940 --> 00:18:48,660
Ja, dat deel ik wel met je.

345
00:18:48,660 --> 00:18:49,260
Ja.

346
00:18:49,260 --> 00:18:52,220
En het raakt ook zoveel processen.

347
00:18:52,220 --> 00:18:55,240
En het kan op zoveel manieren je huidige proces veranderen.

348
00:18:55,240 --> 00:18:57,700
En het is een proces waar mensen al jaren aan gewend zijn.

349
00:18:57,700 --> 00:19:00,020
Dus de verandering is ook impactvol.

350
00:19:00,020 --> 00:19:02,860
Dus ik denk dat het goed is dat we die gesprekken tijdig voeren.

351
00:19:02,860 --> 00:19:04,040
Met de mensen bij wie het raakt.

352
00:19:04,040 --> 00:19:06,120
Ik vind schaduwen wel een mooi voorbeeld.

353
00:19:06,120 --> 00:19:09,220
Want je ziet niet zelf wat je aan je proces kan veranderen.

354
00:19:09,280 --> 00:19:11,240
Als je het al dertig jaar doet en het werk naar behoren.

355
00:19:11,240 --> 00:19:12,520
En als iemand dan zegt van ja.

356
00:19:12,520 --> 00:19:13,960
Als je nu vijf uur dit gaat doen.

357
00:19:13,960 --> 00:19:15,800
Dan ga je twee keer zo snel.

358
00:19:15,800 --> 00:19:17,520
Ja, maar ik doe al dertig jaar dit.

359
00:19:17,520 --> 00:19:18,640
Dat gaat voor mij heel snel.

360
00:19:18,640 --> 00:19:21,180
Dus ik denk dat schaduwen daarbij wel kan helpen.

361
00:19:21,180 --> 00:19:22,360
Om nieuwe inzichten te geven.

362
00:19:22,360 --> 00:19:24,900
En als je dat kan doen met mensen die met passie.

363
00:19:24,900 --> 00:19:26,320
Die nieuwe technologie omarmen.

364
00:19:26,320 --> 00:19:27,460
En dat graag ook willen delen.

365
00:19:27,460 --> 00:19:30,320
Denk ik dat je wel een goede katalysator hebt voor je organisatie.

366
00:19:30,320 --> 00:19:32,580
Ja, dat ben ik zeker met je eens.

367
00:19:32,580 --> 00:19:35,080
En ik heb nog een voorbeeld.

368
00:19:35,080 --> 00:19:36,660
Ik heb recent zelf ook.

369
00:19:36,660 --> 00:19:38,480
Ben ik mee geweest op een innovatie.

370
00:19:38,480 --> 00:19:39,860
Dus ik ga ook af en toe zelf oprijden.

371
00:19:39,860 --> 00:19:41,520
Dus ik mocht mee.

372
00:19:41,520 --> 00:19:44,200
Hartstikke mooi met een innovatiereis.

373
00:19:44,200 --> 00:19:45,980
Ook op het gebied van AI naar Amerika.

374
00:19:45,980 --> 00:19:48,980
En dat is een organisatie in Olsten.

375
00:19:48,980 --> 00:19:49,860
Miro.

376
00:19:49,860 --> 00:19:51,180
Miro zeggen we in Nederland.

377
00:19:51,180 --> 00:19:52,920
Online innovatie.

378
00:19:52,920 --> 00:19:53,740
Online whiteboarding.

379
00:19:54,420 --> 00:19:57,280
En zij hadden heel duidelijk een AI strategie.

380
00:19:57,280 --> 00:20:01,900
Dus zij zeiden eigenlijk binnen een jaar willen wij als organisatie AI first zijn.

381
00:20:01,900 --> 00:20:02,220
Ja.

382
00:20:03,260 --> 00:20:05,840
En dat kan in Amerika.

383
00:20:05,840 --> 00:20:08,020
En daar heb ik daarna nog wel aardige discussies over gevoerd.

384
00:20:08,020 --> 00:20:08,780
Ook hier in Nederland.

385
00:20:08,980 --> 00:20:10,300
Zij hebben het eigenlijk afgedwongen.

386
00:20:10,300 --> 00:20:15,980
Dus zij zeiden tegen hun medewerkers of hun organisatie van over een jaar willen we dus AI first zijn.

387
00:20:15,980 --> 00:20:20,020
Ik was overigens onder de indruk van hun verandermanagement strategie.

388
00:20:20,020 --> 00:20:23,040
Ze hadden echt bedacht van hoe gaan we dit top down aanpakken.

389
00:20:23,040 --> 00:20:24,660
Hoe gaan we dit bottom up aanpakken.

390
00:20:25,520 --> 00:20:31,880
En bijvoorbeeld top down moest bijvoorbeeld het leiderschap wel zeggen van ja gaan we al iets doen met voice AI.

391
00:20:31,880 --> 00:20:33,780
Is dat al volwassen genoeg?

392
00:20:33,780 --> 00:20:34,280
Ja.

393
00:20:34,280 --> 00:20:35,160
Of nog niet.

394
00:20:35,160 --> 00:20:36,440
Eerst niet en later wel.

395
00:20:36,440 --> 00:20:37,420
Nou dat was duidelijk.

396
00:20:37,420 --> 00:20:41,080
Maar zou je twee elementen kunnen noemen waarvan je zegt ja maar daar was ik echt van onder de indruk.

397
00:20:41,080 --> 00:20:42,240
Ja nou ja.

398
00:20:42,240 --> 00:20:47,300
Bottom up zeg maar eigenlijk wat is op een gegeven moment eigenlijk is afgedwongen.

399
00:20:47,300 --> 00:20:53,200
Ja en zo zien we dat terwijl ik het zeg denk ik ja ik weet eigenlijk niet of dat op die manier ervaren is.

400
00:20:53,300 --> 00:20:56,640
Het is in ieder geval misschien niet op de juiste manier gearticuleerd door mij nu.

401
00:20:56,640 --> 00:20:58,860
Maar zo voelen wij dat dan in Nederland denk ik.

402
00:20:58,860 --> 00:21:07,440
Van eigenlijk alle medewerkers werd gevraagd maak een filmpje en vertel hoe jij gebruik kan maken van JNI in jouw werk.

403
00:21:07,440 --> 00:21:07,880
Oh ja.

404
00:21:07,880 --> 00:21:12,000
En hoe je dus jouw werk en wat dat jou bespaart of wat dat jou oplevert.

405
00:21:12,000 --> 00:21:16,520
Ja en dat zouden we denk ik niet zo snel hier aan de organisatie kunnen vragen.

406
00:21:16,520 --> 00:21:18,440
Maar misschien ook wel hè.

407
00:21:18,440 --> 00:21:19,860
Ja maar waarom eigenlijk niet?

408
00:21:19,860 --> 00:21:23,280
Want je laat iemand eigenlijk nadenken over zijn eigen werk.

409
00:21:23,280 --> 00:21:31,840
Ik zou dat zelf misschien prettiger vinden dan dat iemand eigenlijk langskomt die nooit met jou gesproken heeft.

410
00:21:31,840 --> 00:21:33,040
Die zegt jij gaat nu.

411
00:21:33,040 --> 00:21:34,960
Ja dat schuil voorbeeld misschien.

412
00:21:34,960 --> 00:21:35,640
Ja van jij.

413
00:21:35,640 --> 00:21:38,020
Nou ja dat vind ik nog een soort van tussenvormen.

414
00:21:38,020 --> 00:21:42,620
Maar het erger is nog dat iemand gewoon langskomt die zegt van nou we hebben op papier dat proces uitgetekend.

415
00:21:42,620 --> 00:21:44,300
En jouw werk gaat er nu zo uitzien.

416
00:21:44,300 --> 00:21:45,740
En zo ga je JNI in jou toepassen.

417
00:21:45,740 --> 00:21:47,600
Ja dan wordt het voor je besloten eigenlijk.

418
00:21:47,600 --> 00:21:59,720
Ja en nu zeg maar door er zelf over na te denken of video opnemen heb je zelf de regie in wat jij vindt hoe jouw werk verbeterd zou kunnen worden.

419
00:21:59,720 --> 00:21:59,960
Ja.

420
00:21:59,960 --> 00:22:00,600
Ja.

421
00:22:00,600 --> 00:22:02,940
En ik denk dat je ook heel veel van elkaar kan leren.

422
00:22:02,940 --> 00:22:03,200
Ja.

423
00:22:04,020 --> 00:22:07,840
Dus je dwingt eigenlijk mensen om daar actief over na te denken.

424
00:22:07,840 --> 00:22:08,240
Ja.

425
00:22:08,240 --> 00:22:10,100
Daar moet je dan natuurlijk ook wel tijd voor geven.

426
00:22:10,100 --> 00:22:10,340
Ja.

427
00:22:10,340 --> 00:22:11,040
En ruimte.

428
00:22:11,040 --> 00:22:11,380
Ja.

429
00:22:11,380 --> 00:22:15,240
Maar vervolgens kan je daar natuurlijk heel veel inderdaad aan hebben.

430
00:22:15,240 --> 00:22:16,360
Dus je geeft ook autonomie.

431
00:22:16,360 --> 00:22:16,680
Ja.

432
00:22:16,680 --> 00:22:18,140
Precies wat jij net aangeeft.

433
00:22:18,140 --> 00:22:18,960
Of eigenaarschap.

434
00:22:18,960 --> 00:22:19,200
Ja.

435
00:22:19,200 --> 00:22:22,580
En die collega's kunnen volgens ook heel veel van elkaar leren daarin.

436
00:22:22,580 --> 00:22:22,840
Ja.

437
00:22:22,840 --> 00:22:23,180
Ja.

438
00:22:23,180 --> 00:22:25,040
Dus ik vind het ook een hele mooie manier.

439
00:22:25,040 --> 00:22:31,920
En tegelijk denk ik wel dat je dat natuurlijk niet van iedereen kan vragen op iedere functiegroep in een willekeurig bedrijf.

440
00:22:32,000 --> 00:22:33,660
Dus daar moet je wel aandacht voor hebben.

441
00:22:33,660 --> 00:22:33,920
Ja.

442
00:22:33,920 --> 00:22:37,360
Bepaalde persoonlijkheden dat ik minder fijn vind om een video op zichzelf te hebben.

443
00:22:37,360 --> 00:22:38,660
Of om dat uit te spreken inderdaad.

444
00:22:38,660 --> 00:22:39,000
Ja.

445
00:22:39,000 --> 00:22:39,660
Alleen dat al.

446
00:22:39,660 --> 00:22:39,880
Ja.

447
00:22:39,880 --> 00:22:41,180
Maar goed.

448
00:22:41,180 --> 00:22:43,280
Het past bij een bedrijf denk ik als Miro.

449
00:22:43,280 --> 00:22:43,840
Ja.

450
00:22:43,840 --> 00:22:45,080
Wat nog relatief jong is.

451
00:22:45,080 --> 00:22:48,800
Waar ook relatief denk ik hoog opgeleide en jonge mensen werken.

452
00:22:48,800 --> 00:22:49,760
Maar.

453
00:22:49,760 --> 00:22:53,340
En overigens hoe hoeft het wat mij betreft niet aan leeftijd gekoppeld te zijn.

454
00:22:53,340 --> 00:22:55,480
Maar ja.

455
00:22:55,480 --> 00:22:55,780
Weet je.

456
00:22:55,780 --> 00:22:58,880
Dat zal niet even makkelijk zijn voor alle andere.

457
00:22:58,880 --> 00:22:59,320
Ja.

458
00:22:59,320 --> 00:23:01,940
Voor willekeurige organisaties en functies.

459
00:23:01,940 --> 00:23:05,520
En je hebt ook al wat kennis nodig van wat is het en wat zou het kunnen betekenen voor mijn werk.

460
00:23:05,520 --> 00:23:07,400
Dus er is ook wat educatie vooraf gegaan.

461
00:23:07,400 --> 00:23:09,120
Lijkt mij voor dat je dat eigenlijk kan gaan zeggen.

462
00:23:09,120 --> 00:23:09,680
Ja.

463
00:23:09,680 --> 00:23:11,580
Maar ik vind het wel mooi.

464
00:23:11,580 --> 00:23:11,900
Dus.

465
00:23:11,900 --> 00:23:12,760
Ja.

466
00:23:12,760 --> 00:23:14,120
Ik heb het toch wel een klein beetje.

467
00:23:14,120 --> 00:23:15,460
Mijn mening.

468
00:23:15,460 --> 00:23:16,520
Nou.

469
00:23:16,520 --> 00:23:17,420
Niet persoonlijk aangepast.

470
00:23:17,420 --> 00:23:18,160
Maar het is wel.

471
00:23:18,160 --> 00:23:19,280
Ik vind het toch wel.

472
00:23:19,280 --> 00:23:20,420
Ik geloof wel dat je.

473
00:23:20,420 --> 00:23:23,100
Dat die ontwikkelingen op dit moment zoveel impact hebben.

474
00:23:23,880 --> 00:23:27,120
Dat je er op een bepaalde manier urgentie voor moet creëren.

475
00:23:27,120 --> 00:23:27,460
Ja.

476
00:23:27,460 --> 00:23:29,560
En dat het wel helpt om.

477
00:23:29,560 --> 00:23:30,180
Ja.

478
00:23:30,180 --> 00:23:32,940
Dat misschien toch net even wat meer prioriteit te geven.

479
00:23:32,940 --> 00:23:34,000
Of net even wat meer.

480
00:23:34,000 --> 00:23:35,420
Ja.

481
00:23:35,420 --> 00:23:39,000
Ook te verwachten van de organisatie.

482
00:23:39,000 --> 00:23:42,720
Dan gebruikelijk is.

483
00:23:43,400 --> 00:23:43,680
Nou.

484
00:23:43,680 --> 00:23:44,160
Ik vind het wel mooi.

485
00:23:44,160 --> 00:23:46,580
Want je geeft daar heel erg aan bij Miro.

486
00:23:46,580 --> 00:23:47,180
Dat ze.

487
00:23:47,180 --> 00:23:50,000
Ze hebben gewoon een strategisch besluit genomen.

488
00:23:50,000 --> 00:23:50,960
En gewoon gezegd van.

489
00:23:50,960 --> 00:23:52,140
Dit gaan we doen.

490
00:23:52,140 --> 00:23:56,080
Daar hebben best wel heel veel bedrijven moeite mee.

491
00:23:56,080 --> 00:24:00,700
Om echt strategisch naar deze transformatie te kijken.

492
00:24:00,700 --> 00:24:03,540
We hebben een kaartspel ontwikkeld.

493
00:24:03,540 --> 00:24:03,860
Ik denk.

494
00:24:03,860 --> 00:24:05,100
Gaan we even een bruggetje maken.

495
00:24:05,100 --> 00:24:08,640
Waarin wij stellingen hebben opgenomen.

496
00:24:08,640 --> 00:24:10,260
Die je met elkaar kan bespreken.

497
00:24:10,260 --> 00:24:13,140
Dus er zit geen goed of fout aan.

498
00:24:13,280 --> 00:24:14,000
Maar juist zeg maar.

499
00:24:14,000 --> 00:24:15,060
Het hele idee van.

500
00:24:15,060 --> 00:24:17,240
De discussie met elkaar aangaan.

501
00:24:17,240 --> 00:24:18,560
Van hoe staan we erin.

502
00:24:18,560 --> 00:24:19,920
Op een bepaald onderwerp.

503
00:24:19,920 --> 00:24:20,940
En we willen graag.

504
00:24:20,940 --> 00:24:22,700
Zo'n stelling aan jou voorleggen.

505
00:24:22,700 --> 00:24:23,140
Als dat mag.

506
00:24:23,140 --> 00:24:23,860
Zeker.

507
00:24:43,160 --> 00:24:43,940
Nou je zag het.

508
00:24:43,940 --> 00:24:44,420
Ik heb geschud.

509
00:24:44,420 --> 00:24:46,460
Dus er is weer een mooie stelling naar boven gekomen.

510
00:24:46,460 --> 00:24:47,620
Een hele toepasselijke.

511
00:24:47,620 --> 00:24:49,780
Gebruik en toepassing is het thema.

512
00:24:49,780 --> 00:24:51,800
En de stelling luidt.

513
00:24:51,800 --> 00:24:57,260
Generatieve AI zal essentieel zijn voor het ontwikkelen van innovatieve oplossingen in onze sector.

514
00:25:00,500 --> 00:25:00,960
Ja.

515
00:25:00,960 --> 00:25:02,140
En dan met onze sector.

516
00:25:02,140 --> 00:25:03,200
Wat bedoelt mijn sector?

517
00:25:03,200 --> 00:25:04,860
Of gewoon in de algemene zin?

518
00:25:04,860 --> 00:25:05,160
Nee.

519
00:25:05,160 --> 00:25:06,800
Sector waarin je actief bent.

520
00:25:06,800 --> 00:25:07,480
Ja.

521
00:25:07,480 --> 00:25:09,100
Volmondig ja.

522
00:25:09,100 --> 00:25:11,960
En ja.

523
00:25:11,960 --> 00:25:14,200
Ik denk dat we daar eigenlijk ook al wel over gehad hebben.

524
00:25:14,200 --> 00:25:14,720
Dus.

525
00:25:14,720 --> 00:25:19,180
Hoe zag het er eigenlijk dan uit voor die generatieve AI?

526
00:25:21,040 --> 00:25:22,300
Daar kan ik me bijna niet meer.

527
00:25:22,300 --> 00:25:25,120
Daarom vraag ik het ook.

528
00:25:25,120 --> 00:25:26,560
Nee.

529
00:25:26,560 --> 00:25:28,560
Nou ik denk een leuk voorbeeld van wat we.

530
00:25:28,560 --> 00:25:31,840
Waar wij bijvoorbeeld nu mee aan het experimenteren zijn.

531
00:25:31,840 --> 00:25:32,120
Want.

532
00:25:32,120 --> 00:25:33,740
Ik kan echt niet stellen dat.

533
00:25:33,740 --> 00:25:34,100
Dat.

534
00:25:34,100 --> 00:25:35,780
Bijvoorbeeld mijn organisatie is al.

535
00:25:36,780 --> 00:25:38,540
Voor 100% benut.

536
00:25:38,540 --> 00:25:41,400
Of gebruik maakt van alle kansen die er zijn.

537
00:25:41,400 --> 00:25:46,560
Maar we proberen nu onze offertes te laten creëren door.

538
00:25:46,560 --> 00:25:47,040
Oh ja.

539
00:25:47,040 --> 00:25:48,660
Generatieve AI.

540
00:25:48,660 --> 00:25:51,200
En dat is natuurlijk ook niet volledig.

541
00:25:51,200 --> 00:25:52,360
Maar wel gedeeltelijk.

542
00:25:52,360 --> 00:25:54,520
En toen het net uitkwam.

543
00:25:54,520 --> 00:25:56,800
Toen zijn we ook snel gaan fine tunen.

544
00:25:56,800 --> 00:26:00,640
Dat je dan een beetje je eigen taal eraan toevoegt.

545
00:26:00,640 --> 00:26:00,900
Ja.

546
00:26:00,900 --> 00:26:02,860
ChatGPT in dit geval.

547
00:26:02,860 --> 00:26:06,200
Maar dit zijn wel hele mooie toepassingen natuurlijk.

548
00:26:06,580 --> 00:26:07,800
Dus het is wel samen zoeken.

549
00:26:07,800 --> 00:26:10,140
Van waar kunnen we nou onze productiviteit verbeteren.

550
00:26:10,140 --> 00:26:11,060
Of waar kunnen we nou.

551
00:26:11,060 --> 00:26:12,540
Ja.

552
00:26:12,540 --> 00:26:13,880
Bepaalde dingen slimmer doen.

553
00:26:13,880 --> 00:26:16,300
Zodat we gewoon tijd hebben voor andere zaken.

554
00:26:16,300 --> 00:26:17,260
Dus.

555
00:26:17,260 --> 00:26:18,640
Dus ja.

556
00:26:18,640 --> 00:26:19,920
Ik denk zeker dat het.

557
00:26:19,920 --> 00:26:21,940
Mijn sector ook.

558
00:26:21,940 --> 00:26:23,280
Beïnvloed.

559
00:26:23,280 --> 00:26:23,720
Ja.

560
00:26:23,720 --> 00:26:25,260
Net als vele anderen.

561
00:26:25,260 --> 00:26:27,160
Ik denk wel.

562
00:26:27,160 --> 00:26:28,760
Dat heb ik ook weer gemerkt op die reis.

563
00:26:28,760 --> 00:26:30,820
Die we recent hebben gedaan.

564
00:26:30,820 --> 00:26:32,200
Dat.

565
00:26:32,200 --> 00:26:34,200
Het onderwerp nu.

566
00:26:34,200 --> 00:26:36,500
Is echt wel die agentic.

567
00:26:36,540 --> 00:26:36,840
AI.

568
00:26:36,840 --> 00:26:37,420
Dus.

569
00:26:37,420 --> 00:26:39,160
Agents.

570
00:26:39,160 --> 00:26:39,460
Ja.

571
00:26:39,460 --> 00:26:40,300
Probeer het inderdaad.

572
00:26:40,300 --> 00:26:40,980
Heel lastig.

573
00:26:40,980 --> 00:26:41,460
Ja.

574
00:26:41,460 --> 00:26:42,420
Dat is best lastig.

575
00:26:42,420 --> 00:26:43,760
Ja.

576
00:26:43,760 --> 00:26:43,800
Ja.

577
00:26:43,800 --> 00:26:44,500
Dat is wel.

578
00:26:44,500 --> 00:26:46,200
Het grappige is dat.

579
00:26:46,200 --> 00:26:48,540
Waar dat generatieve AI dus.

580
00:26:48,540 --> 00:26:49,580
De afgelopen anderhalf jaar.

581
00:26:49,580 --> 00:26:51,280
Zo ontzettend veel aandacht heeft gekregen.

582
00:26:51,280 --> 00:26:52,020
Ja.

583
00:26:52,020 --> 00:26:53,320
Verwacht ik heel veel van.

584
00:26:53,320 --> 00:26:54,240
Van die agents.

585
00:26:54,240 --> 00:26:54,800
Voor dit jaar.

586
00:26:54,800 --> 00:26:55,160
Ja.

587
00:26:55,160 --> 00:26:56,860
Je ziet de een na de andere organisatie.

588
00:26:56,860 --> 00:26:57,660
Hiermee starten.

589
00:26:57,660 --> 00:26:58,660
Ja.

590
00:26:58,660 --> 00:26:59,080
En.

591
00:26:59,080 --> 00:27:00,480
Zou je daar ook een.

592
00:27:01,480 --> 00:27:02,660
voorbeeld van vragen.

593
00:27:02,660 --> 00:27:03,600
Die gesteld zijn.

594
00:27:03,600 --> 00:27:04,100
Weet je.

595
00:27:04,100 --> 00:27:05,080
Wat leeft.

596
00:27:05,080 --> 00:27:05,480
Zeg maar.

597
00:27:05,480 --> 00:27:05,900
Aan.

598
00:27:05,900 --> 00:27:07,200
Vragen die dan.

599
00:27:07,200 --> 00:27:09,100
Waarom ze.

600
00:27:09,100 --> 00:27:10,660
Daarmee moeten starten misschien.

601
00:27:10,660 --> 00:27:12,580
Of welke problemen dat oplevert.

602
00:27:12,580 --> 00:27:13,820
Zijn dat dat soort vragen.

603
00:27:13,820 --> 00:27:14,920
Ja.

604
00:27:15,040 --> 00:27:15,460
Ik denk.

605
00:27:15,460 --> 00:27:17,460
Ja.

606
00:27:17,460 --> 00:27:19,260
Dan komen gelijk weer andere vragen.

607
00:27:19,260 --> 00:27:21,920
Ik kom zo meteen nog even terug.

608
00:27:21,920 --> 00:27:22,600
Op een andere vraag.

609
00:27:22,600 --> 00:27:23,100
Die eigenlijk.

610
00:27:23,100 --> 00:27:25,080
Omdat je die vraag natuurlijk eerder hebt gesteld.

611
00:27:25,080 --> 00:27:27,160
Ik denk dat het ook wel goed is om te noemen.

612
00:27:27,160 --> 00:27:28,540
Dat er nog steeds heel veel vragen zijn.

613
00:27:28,540 --> 00:27:29,020
Rondom.

614
00:27:29,020 --> 00:27:31,180
Moet ik nou eerst mijn data op orde brengen.

615
00:27:31,180 --> 00:27:32,620
Of is het al goed genoeg.

616
00:27:32,620 --> 00:27:35,020
Of hoever ontwikkelt de software.

617
00:27:35,020 --> 00:27:37,200
Of de toepassingen zich door.

618
00:27:37,200 --> 00:27:40,720
Zodat ik eigenlijk niet meer druk hoef te maken.

619
00:27:40,720 --> 00:27:42,520
Over ongeorganiseerde data.

620
00:27:42,520 --> 00:27:42,920
Ja.

621
00:27:43,520 --> 00:27:45,060
Dus dat is ook echt een vraagstuk.

622
00:27:45,060 --> 00:27:47,720
Maar specifiek op dat stuk van die agents.

623
00:27:47,720 --> 00:27:49,340
Wordt er wel veel ook gevraagd.

624
00:27:49,340 --> 00:27:50,220
Van ja.

625
00:27:50,220 --> 00:27:51,340
Krijg ik nou zo meteen.

626
00:27:51,340 --> 00:27:53,240
Honderd agents.

627
00:27:53,240 --> 00:27:54,060
Of één.

628
00:27:54,060 --> 00:27:54,580
Ja.

629
00:27:54,580 --> 00:27:55,600
Super agent.

630
00:27:55,600 --> 00:27:56,040
Ja.

631
00:27:56,040 --> 00:27:58,240
Of een soort manager agents.

632
00:27:58,240 --> 00:27:59,560
Van al die andere agents.

633
00:27:59,560 --> 00:27:59,940
Ja.

634
00:27:59,940 --> 00:28:01,960
In Amerika was ik bijvoorbeeld bij een partij.

635
00:28:01,960 --> 00:28:02,940
En die zeiden van.

636
00:28:02,940 --> 00:28:03,080
Ja.

637
00:28:03,080 --> 00:28:05,180
Wij zijn al bezig met agent to agent marketing.

638
00:28:05,180 --> 00:28:06,140
Oké.

639
00:28:06,140 --> 00:28:07,060
Dus we moeten straks.

640
00:28:07,060 --> 00:28:07,980
Wat houdt dat in?

641
00:28:07,980 --> 00:28:08,840
Nou.

642
00:28:08,840 --> 00:28:11,380
Dat ik niet meer marketing voorbereid voor jou bijvoorbeeld.

643
00:28:11,380 --> 00:28:11,760
Ja.

644
00:28:11,760 --> 00:28:12,780
Als potentiële klant.

645
00:28:13,040 --> 00:28:13,920
Van mijn bedrijf.

646
00:28:13,920 --> 00:28:15,900
Maar voor een agent van.

647
00:28:15,900 --> 00:28:17,000
Een agent van iemand.

648
00:28:17,000 --> 00:28:17,600
Oké.

649
00:28:17,600 --> 00:28:18,020
Oké.

650
00:28:18,020 --> 00:28:19,460
Dus gewoon.

651
00:28:19,460 --> 00:28:20,000
Ja.

652
00:28:20,000 --> 00:28:21,400
Als die bepaalde acties voor je.

653
00:28:21,400 --> 00:28:22,640
Besluiten voor je gaan nemen.

654
00:28:22,640 --> 00:28:25,820
Of acties gaan uitvoeren.

655
00:28:25,820 --> 00:28:29,340
Dan moet je misschien die agent wel gaan aanspreken.

656
00:28:29,500 --> 00:28:31,160
Dus daar zit best wel veel in.

657
00:28:31,160 --> 00:28:34,900
En gewoon hele begripsvorming nog rondom die agents.

658
00:28:34,900 --> 00:28:37,460
En dan wordt het misschien al te complex.

659
00:28:37,460 --> 00:28:40,360
Maar ook wat wordt dan de toekomst van SaaS.

660
00:28:40,360 --> 00:28:41,500
Software as a service.

661
00:28:41,500 --> 00:28:41,960
Ja.

662
00:28:41,960 --> 00:28:46,720
Zijn mensen eigenlijk wel in staat om zelf agents te creëren?

663
00:28:46,720 --> 00:28:50,700
Een organisatie noemde dat blank box gedachten.

664
00:28:50,980 --> 00:28:52,400
Heel veel mensen kunnen dan.

665
00:28:52,400 --> 00:28:54,800
En dat zag je bijvoorbeeld Salesforce.

666
00:28:54,800 --> 00:28:56,360
Maar je hebt ook ServiceNow, Workday.

667
00:28:56,360 --> 00:28:58,800
Nou die zijn allemaal of co-pilot studio.

668
00:28:58,800 --> 00:29:00,880
Allemaal bezig met een soort agent studio.

669
00:29:00,880 --> 00:29:03,360
En dan kan je zelf je eigen agent ontwikkelen binnen hun software.

670
00:29:03,360 --> 00:29:04,780
Ik denk dat Info Support.

671
00:29:04,780 --> 00:29:05,800
Nou kan je misschien niet zo vertellen.

672
00:29:05,800 --> 00:29:06,340
Ook al wat doet.

673
00:29:07,940 --> 00:29:11,400
Maar dan zie je eigenlijk dat mensen nog heel vaak niet in staat zijn.

674
00:29:11,400 --> 00:29:14,100
Als je dan vraagt van waar wil je nou een agent voor creëren?

675
00:29:14,100 --> 00:29:15,560
Dan blijft het stil.

676
00:29:15,560 --> 00:29:16,280
Ja precies.

677
00:29:16,280 --> 00:29:19,100
Daar komt dus ook weer dat stuk kijken van.

678
00:29:19,100 --> 00:29:21,940
Ja hoe kan je nou voor zorgen dat mensen dan ook in staat zijn.

679
00:29:21,940 --> 00:29:23,560
Om daar creatief over na te denken.

680
00:29:23,560 --> 00:29:24,880
En de juiste vraag te stellen.

681
00:29:24,880 --> 00:29:26,200
En dus die technologie te kunnen gebruiken.

682
00:29:26,200 --> 00:29:29,540
Dus gewoon nog heel veel rondom begripsvorming denk ik.

683
00:29:29,540 --> 00:29:33,420
Waar ik wel soms een beetje bang voor ben.

684
00:29:33,420 --> 00:29:34,720
Dat hebben we in het begin zeg maar.

685
00:29:34,720 --> 00:29:37,700
Toen de machine learning ook weer opkwam.

686
00:29:37,700 --> 00:29:39,280
Heel veel te maken gehad.

687
00:29:39,280 --> 00:29:39,940
En de AI.

688
00:29:39,940 --> 00:29:41,300
Voor de generatieve AI.

689
00:29:41,300 --> 00:29:45,260
Is dat bedrijven op zoek waren naar een oplossing.

690
00:29:45,260 --> 00:29:47,220
Om de technologie toe te passen.

691
00:29:47,220 --> 00:29:51,660
En in mijn wereld is dat zeg maar de omgekeerde wereld.

692
00:29:51,660 --> 00:29:53,220
In principe heb je een probleem.

693
00:29:53,220 --> 00:29:56,500
En daar kan de technologie je mogelijk bij helpen.

694
00:29:56,500 --> 00:29:59,180
En we zijn wel zeg maar redelijk.

695
00:29:59,180 --> 00:30:01,460
En zeker rondom die AI agents.

696
00:30:01,460 --> 00:30:04,580
Heb ik nu wel het gevoel dat we op zoek zijn.

697
00:30:04,820 --> 00:30:07,920
Maar naar een oplossing waarin we deze technologie kunnen inpassen.

698
00:30:07,920 --> 00:30:10,100
Ik snap wel wat je zegt.

699
00:30:10,100 --> 00:30:15,040
Want toen ik veertien jaar geleden begon met ondernemen.

700
00:30:15,040 --> 00:30:16,740
Toen had ik een bedrijf in mobiele apps.

701
00:30:16,740 --> 00:30:20,080
En precies toen werd ook altijd gezegd.

702
00:30:20,080 --> 00:30:20,980
Ik wil een app.

703
00:30:20,980 --> 00:30:22,320
Ik moet een app.

704
00:30:22,320 --> 00:30:23,380
Want iedereen wil een app.

705
00:30:23,380 --> 00:30:23,820
Waarom?

706
00:30:23,820 --> 00:30:25,020
Of ik heb een goed idee voor een app.

707
00:30:25,020 --> 00:30:25,700
Omdat?

708
00:30:25,700 --> 00:30:26,200
Daarom.

709
00:30:26,440 --> 00:30:27,820
Dus ik herken dat wel.

710
00:30:27,820 --> 00:30:29,640
Ik denk dat dat toen ook heel erg speelde.

711
00:30:29,640 --> 00:30:32,860
Ik weet niet of het verkeerd is.

712
00:30:32,860 --> 00:30:38,400
Omdat ik denk dat het wel belangrijk is dat we leren werken ermee.

713
00:30:38,400 --> 00:30:38,940
Zeker.

714
00:30:38,940 --> 00:30:42,820
En dat als het motiveert dat je daardoor gaat experimenteren.

715
00:30:42,820 --> 00:30:43,920
En dat gaat uitproberen.

716
00:30:43,920 --> 00:30:46,060
Dan is het positief wat mij betreft.

717
00:30:46,060 --> 00:30:46,440
Ja.

718
00:30:47,580 --> 00:30:48,840
Maar ik ben het met je eens.

719
00:30:48,840 --> 00:30:50,780
Maar goed.

720
00:30:50,780 --> 00:30:52,180
Kijk.

721
00:30:52,180 --> 00:30:58,540
Het aantal organisaties wat al heel actief en effectief gebruik maakt van agents.

722
00:30:58,540 --> 00:30:59,680
Of agentic AI.

723
00:30:59,680 --> 00:31:02,500
Is denk ik nog in Nederland nog wel zeer beperkt.

724
00:31:02,500 --> 00:31:03,680
Dat denk ik ook.

725
00:31:03,680 --> 00:31:04,560
Sterker nog.

726
00:31:04,560 --> 00:31:07,720
We hebben een marktonderzoek gedaan.

727
00:31:07,720 --> 00:31:09,880
Onder 414 bedrijven.

728
00:31:09,880 --> 00:31:10,900
Nederlandse bedrijven.

729
00:31:10,900 --> 00:31:17,400
En daar kwam uit dat 3% eigenlijk pas begonnen is met AI.

730
00:31:17,400 --> 00:31:20,880
Waar je laat staan een volledige implementatie daarvan heeft draaien.

731
00:31:20,880 --> 00:31:22,160
In algemene zin AI.

732
00:31:22,160 --> 00:31:22,540
Ja.

733
00:31:22,540 --> 00:31:23,120
Ja.

734
00:31:23,120 --> 00:31:24,600
Ja moet je nog aan.

735
00:31:24,600 --> 00:31:26,480
Dus daar is nog een hele wereld te winnen.

736
00:31:26,480 --> 00:31:27,560
En ik ben het met je eens.

737
00:31:27,560 --> 00:31:27,920
Ik bedoel.

738
00:31:27,920 --> 00:31:29,720
Experimenteren doe dat alsjeblieft.

739
00:31:29,720 --> 00:31:35,520
En daarmee ga je ook leren wat de techniek wel en wat de techniek niet kan.

740
00:31:35,520 --> 00:31:42,100
Maar probeer niet helemaal af te wijken van de bedrijfsdoelstellingen die je hebt.

741
00:31:42,100 --> 00:31:44,060
De richting waar je in wil gaan.

742
00:31:44,060 --> 00:31:46,300
Het is veel handiger als dat in lijn ligt met elkaar.

743
00:31:46,300 --> 00:31:47,060
Ja.

744
00:31:47,060 --> 00:31:47,540
Ja.

745
00:31:47,540 --> 00:31:47,700
Ja.

746
00:31:47,700 --> 00:31:49,280
Dat ben ik heel erg met je eens.

747
00:31:49,280 --> 00:31:49,560
En dat.

748
00:31:49,560 --> 00:31:50,400
Ja.

749
00:31:50,400 --> 00:31:53,260
Dan kom je misschien even terug op bijvoorbeeld datagedreven werken.

750
00:31:53,260 --> 00:31:54,840
Waar we het in het begin ook over hadden.

751
00:31:54,840 --> 00:31:59,380
Ik denk ook als er mij gevraagd wordt van ja wat kan ik daarmee doen.

752
00:31:59,380 --> 00:32:01,780
Of hoe kan ik meer datagedreven werken.

753
00:32:01,780 --> 00:32:03,220
Of hoe kan ik AI inzetten.

754
00:32:03,220 --> 00:32:04,720
Ja.

755
00:32:04,720 --> 00:32:05,200
Dan.

756
00:32:05,200 --> 00:32:07,040
En daar ben ik natuurlijk niet uniek in.

757
00:32:07,040 --> 00:32:10,400
Maar dan ga ik ook snel terug naar wat zijn nou eigenlijk je strategische doelstellingen.

758
00:32:10,400 --> 00:32:11,040
Of je ambities.

759
00:32:11,040 --> 00:32:12,300
Je processen.

760
00:32:12,400 --> 00:32:12,600
Ja.

761
00:32:12,600 --> 00:32:14,020
Of op individueel niveau.

762
00:32:14,020 --> 00:32:17,460
En dan natuurlijk nadenken vanuit je doelstelling.

763
00:32:17,460 --> 00:32:21,140
Van hoe zou het je kunnen helpen om daarin een bepaalde vordering te maken.

764
00:32:21,140 --> 00:32:22,620
Dus dat ben ik helemaal met je eens.

765
00:32:22,620 --> 00:32:22,880
Weet je.

766
00:32:22,880 --> 00:32:24,960
Het blijft dan een enabler en niet een doel op zich.

767
00:32:24,960 --> 00:32:25,300
Ja toch.

768
00:32:25,300 --> 00:32:25,540
Ja.

769
00:32:25,540 --> 00:32:28,040
En je wilde nog op iets terugkomen.

770
00:32:28,040 --> 00:32:28,640
Dus je zei van.

771
00:32:28,640 --> 00:32:29,840
Ik ben het even kwijt hoor.

772
00:32:29,840 --> 00:32:31,360
Ik had eerst nog even een puntje.

773
00:32:31,360 --> 00:32:31,840
Oh sorry.

774
00:32:31,840 --> 00:32:32,720
Ik wil je experimenteren.

775
00:32:32,720 --> 00:32:33,740
Ik denk dat dat heel goed is.

776
00:32:33,740 --> 00:32:36,020
Maar vergeet dan niet met elkaar te evalueren.

777
00:32:36,020 --> 00:32:39,140
Vaak zien we van experimenteren dat we naar productie willen brengen.

778
00:32:39,140 --> 00:32:41,300
Maar we vergeten soms nog wel eens de evaluatiestap.

779
00:32:41,300 --> 00:32:41,680
Van hey.

780
00:32:41,680 --> 00:32:43,880
Was dit nou de beste oplossing voor dit probleem.

781
00:32:43,880 --> 00:32:45,900
We weten nu dat het technisch kan of niet kan.

782
00:32:45,900 --> 00:32:48,180
En dan vervolgens daar weer op door te pakken.

783
00:32:48,180 --> 00:32:50,440
En niet maar we zijn al de weg ingegaan.

784
00:32:50,440 --> 00:32:51,440
Dus we gaan op die weg verder.

785
00:32:51,440 --> 00:32:53,580
Dus blijf alsjeblieft evalueren op dat vraagstuk.

786
00:32:53,860 --> 00:32:57,980
Maar bedoel je dan eigenlijk ook dat je denkt dat er dan te weinig misschien gestopt wordt met iets?

787
00:32:57,980 --> 00:32:58,800
Of ja.

788
00:32:58,800 --> 00:32:59,240
Ja.

789
00:32:59,240 --> 00:33:03,260
Of het stopt en het wordt in de prullenbak gegooid en er wordt niet van geleerd.

790
00:33:03,260 --> 00:33:05,600
En dat zie ik ook nog vaak gebeuren.

791
00:33:05,600 --> 00:33:06,180
Van goh ja.

792
00:33:06,180 --> 00:33:07,060
Was geen succes.

793
00:33:07,060 --> 00:33:10,100
Maar we hebben niet vastgelegd van waarom was het geen succes.

794
00:33:10,100 --> 00:33:11,340
En wat hebben we ervan geleerd.

795
00:33:11,340 --> 00:33:13,660
Om de volgende keer weer op door te groeien.

796
00:33:13,660 --> 00:33:15,020
En soms wordt er gewoon.

797
00:33:15,020 --> 00:33:16,420
Ja dit werkt nu.

798
00:33:16,420 --> 00:33:17,320
We moeten nu naar productie.

799
00:33:17,320 --> 00:33:18,360
Want we hebben het volgende probleem.

800
00:33:18,360 --> 00:33:20,140
Of we hebben de volgende oplossing al klaar staan.

801
00:33:20,140 --> 00:33:23,680
Dus rust en regelmaat daarin creëren.

802
00:33:23,680 --> 00:33:26,420
Ja overigens heb ik daar dus ook wel veel vragen over gehoord.

803
00:33:26,420 --> 00:33:29,100
En dat is niet precies dat.

804
00:33:29,100 --> 00:33:30,860
Maar daar doet me nu wel aan denken.

805
00:33:30,860 --> 00:33:34,640
Van hoe schaal je nou initiatieven op in de organisatie op dit gebied.

806
00:33:34,640 --> 00:33:39,140
Omdat er vaak wel veel enthousiasme is voor het starten met allerlei toepassingen.

807
00:33:39,140 --> 00:33:41,100
Nou even weer op het gebied van AI specifiek.

808
00:33:42,680 --> 00:33:44,960
Maar ja dan uiteindelijk als het doorgroeit.

809
00:33:44,960 --> 00:33:46,140
Als het een bepaald punt bereikt.

810
00:33:46,140 --> 00:33:47,360
En je evolueert.

811
00:33:47,360 --> 00:33:48,680
En je zegt ja dit is eigenlijk wel belangrijk.

812
00:33:48,680 --> 00:33:51,100
Dan concurreert het gewoon met andere initiatieven in de organisatie.

813
00:33:51,100 --> 00:33:54,140
En hoe zorg je dan voor voldoende afstemming.

814
00:33:54,140 --> 00:33:56,340
Tussen verschillende afdelingen.

815
00:33:56,340 --> 00:33:58,660
Maar ook waar geef je prioriteit aan.

816
00:33:58,660 --> 00:33:59,940
En hoe help je dat opschalen.

817
00:33:59,940 --> 00:34:01,160
Daar waren ook echt wel.

818
00:34:01,160 --> 00:34:04,840
Ja zeker van de organisaties die dus al wat meer doen op dat gebied.

819
00:34:04,840 --> 00:34:06,460
Lagen daar vraagstukken.

820
00:34:06,460 --> 00:34:07,380
Hadden ze goede tips?

821
00:34:10,820 --> 00:34:11,420
Goede vraag.

822
00:34:11,420 --> 00:34:16,840
Ja moet ik je toch even schuldig blijven denk ik.

823
00:34:16,840 --> 00:34:18,239
Dus ik denk dat dit.

824
00:34:18,239 --> 00:34:20,139
Het was in ieder geval herkenbaar.

825
00:34:20,139 --> 00:34:20,520
Ja.

826
00:34:20,520 --> 00:34:23,800
En de tips.

827
00:34:23,800 --> 00:34:26,960
Nee eigenlijk als ik er nu even iets meer over nadenk.

828
00:34:26,960 --> 00:34:31,360
Dan kwamen de voorbeelden van de organisaties die hier verder mee waren.

829
00:34:31,360 --> 00:34:36,280
Eigenlijk twee drietal zeiden eigenlijk allemaal van.

830
00:34:36,280 --> 00:34:38,460
Ja de business moet hier leidend in zijn.

831
00:34:39,260 --> 00:34:41,219
Dus eigenlijk sluit dat weer aan bij wat jij net zei.

832
00:34:41,219 --> 00:34:44,880
Want het gaat er dus ook echt om dat er een goede business.

833
00:34:44,880 --> 00:34:46,659
Dat er echt een business owner is.

834
00:34:46,659 --> 00:34:47,139
Ja.

835
00:34:47,139 --> 00:34:49,340
Dus eigenaarschap bij de business.

836
00:34:49,340 --> 00:34:51,719
En een duidelijke casus.

837
00:34:51,719 --> 00:34:53,960
Dus toch niet in het wilde weg gaan.

838
00:34:53,960 --> 00:34:59,640
En waar je op een bepaalde manier ook de ruimte wilt kunnen krijgen om te innoveren zonder direct resultaat.

839
00:34:59,640 --> 00:35:00,000
Ja.

840
00:35:00,220 --> 00:35:07,320
Toch wel in eerste instantie heel erg werken vanuit casussen die op een bepaalde manier waarde voor de business opleveren.

841
00:35:07,320 --> 00:35:09,080
Vaak is dat best wel een moeilijke stap.

842
00:35:09,080 --> 00:35:13,500
Want je komt vaak uit de innovatie hoek met een innovatie budget vanuit de innovatie manager.

843
00:35:13,500 --> 00:35:16,840
En in één keer moet het dan over richting business.

844
00:35:16,840 --> 00:35:18,040
Andere potjes.

845
00:35:18,040 --> 00:35:19,160
Andere eigenaren.

846
00:35:19,840 --> 00:35:22,060
Dat is denk ik de grote stap die gemaakt moet worden.

847
00:35:22,060 --> 00:35:22,460
Ja.

848
00:35:22,460 --> 00:35:23,060
Ja.

849
00:35:23,060 --> 00:35:23,580
Absoluut.

850
00:35:23,580 --> 00:35:24,340
Ja.

851
00:35:24,340 --> 00:35:26,660
En er zit ook een coördinatievraagstuk in.

852
00:35:26,660 --> 00:35:29,140
Van ga je nou iedereen dit zelf.

853
00:35:29,140 --> 00:35:30,940
Iedere afdeling dit zelf laten doen.

854
00:35:30,940 --> 00:35:31,180
Ja.

855
00:35:31,180 --> 00:35:31,820
Of ga je dat.

856
00:35:32,300 --> 00:35:34,140
Komt er een soort multidisciplinair team.

857
00:35:34,140 --> 00:35:39,660
Of een dedicated aangewezen team die hiermee bezig gaat.

858
00:35:39,660 --> 00:35:44,280
En wanneer geef je het dan weer terug aan de afdeling.

859
00:35:44,280 --> 00:35:44,960
Weet je.

860
00:35:44,960 --> 00:35:48,320
Daar zijn verschillende varianten in.

861
00:35:48,320 --> 00:35:49,740
En dat is eigenlijk net zoals dat.

862
00:35:49,740 --> 00:35:51,280
Nou wil ik bijna zeggen vroeger.

863
00:35:51,280 --> 00:35:52,700
Maar ging met innovatielabs.

864
00:35:52,700 --> 00:35:54,360
En zit je nog buiten de organisatie of niet.

865
00:35:54,360 --> 00:35:55,860
Of de data scientist.

866
00:35:55,860 --> 00:35:57,500
Moet die in iedere afdeling zitten.

867
00:35:57,500 --> 00:35:58,180
Of erbuiten.

868
00:35:58,180 --> 00:35:59,100
Ja.

869
00:35:59,100 --> 00:36:01,160
Ik vind dat wel vergelijkbare vraagstukken.

870
00:36:01,160 --> 00:36:01,220
Ja.

871
00:36:01,220 --> 00:36:01,620
Absoluut.

872
00:36:01,620 --> 00:36:04,820
En je wilde net even weer terugstappen naar een puntje.

873
00:36:04,820 --> 00:36:04,980
Ja.

874
00:36:04,980 --> 00:36:06,200
Dat was over de data.

875
00:36:06,200 --> 00:36:07,640
Dat was de datakwaliteit.

876
00:36:07,640 --> 00:36:07,840
Ja.

877
00:36:07,840 --> 00:36:09,140
Daar wilde je nog wat over kwijt.

878
00:36:09,140 --> 00:36:10,520
Ja.

879
00:36:10,520 --> 00:36:13,460
Dus daar zijn veel vraagstukken.

880
00:36:13,460 --> 00:36:17,880
Dat speelt veel bij onze verschillende opdrachtgevers.

881
00:36:17,880 --> 00:36:20,580
En daar hebben we het ook veel over gehad in die reis.

882
00:36:20,580 --> 00:36:22,740
En het mooie is wel.

883
00:36:22,740 --> 00:36:23,840
Dat vind ik zelf ook.

884
00:36:23,840 --> 00:36:26,520
Want ik ben geen techneut van huis uit.

885
00:36:26,520 --> 00:36:28,020
Dus ik probeer het allemaal goed te begrijpen.

886
00:36:28,020 --> 00:36:29,500
Maar ik kan niet zeggen dat ik daar.

887
00:36:29,500 --> 00:36:31,500
Nou ik heb geen CTO rol.

888
00:36:31,500 --> 00:36:31,960
Ja.

889
00:36:31,960 --> 00:36:40,740
Maar een algemene afdronken was toch wel van, wees niet het data...

890
00:36:40,740 --> 00:36:43,500
Iedereen zegt, garbage in is garbage out.

891
00:36:43,500 --> 00:36:47,500
Dus je moet wel je data opschonen en bezig zijn met datakwaliteit.

892
00:36:47,500 --> 00:36:51,260
Absoluut, 100% om dat te kunnen gebruiken voor AI.

893
00:36:51,260 --> 00:36:55,500
Maar de ontwikkelingen gaan wel zo snel dat je natuurlijk...

894
00:36:55,500 --> 00:37:01,960
met behulp van allerlei toepassingen data gestructureerd of ongestructureerd kan gebruiken.

895
00:37:01,960 --> 00:37:02,900
Kan samenvoegen.

896
00:37:02,900 --> 00:37:06,160
En daarin hebben een aantal organisaties wel gezegd...

897
00:37:06,160 --> 00:37:08,520
laat opnieuw die vraag vanuit de business leidend zijn.

898
00:37:08,520 --> 00:37:10,640
En denk dan terug aan wat heb je nou nodig?

899
00:37:10,640 --> 00:37:14,280
En hoe ga ik dat uit een systeem halen of uit een externe dataset?

900
00:37:14,280 --> 00:37:18,020
Veel organisaties werken ook voor 80-90% met externe data.

901
00:37:18,020 --> 00:37:24,760
Dus maak je niet aan de voorkant te druk over dat dat heel chaotisch is in je organisatie.

902
00:37:25,360 --> 00:37:27,420
En denk vooral vanuit die toepassing.

903
00:37:27,420 --> 00:37:30,960
En dan, ja, hoe ga ik eraan komen en hoe kan ik het bruikbaar maken?

904
00:37:30,960 --> 00:37:35,480
Vaak als je begint, dan ga je ook zien, zeg maar, welke data je nodig hebt.

905
00:37:35,480 --> 00:37:37,900
En waar de kwaliteit in hoort te zitten.

906
00:37:37,900 --> 00:37:41,620
Dus je kan wel overal proberen het helemaal perfect te maken.

907
00:37:41,620 --> 00:37:45,360
Maar waarschijnlijk, zo gauw je begint met een experiment, kom je erachter...

908
00:37:45,360 --> 00:37:48,600
dat je precies een heel essentieel deel van de data mist.

909
00:37:48,600 --> 00:37:49,280
Ja.

910
00:37:49,280 --> 00:37:51,280
Bijvoorbeeld.

911
00:37:51,280 --> 00:37:53,980
En je bent dadelijk data heel erg mooi aan het maken op de ene plek.

912
00:37:53,980 --> 00:37:56,080
En dan wordt het voor 2% gebruikt.

913
00:37:56,080 --> 00:37:58,260
En de 98% heb je geen focus op.

914
00:37:58,260 --> 00:38:00,160
Dus inderdaad, ga het gebruiken.

915
00:38:00,160 --> 00:38:03,540
Maar hou er rekening mee dat je misschien nog stappen in een proces moet gaan maken...

916
00:38:03,540 --> 00:38:05,500
waar het ingevoerd wordt, dat het gecontroleerd moet worden.

917
00:38:05,500 --> 00:38:08,780
Maar zie het niet als een showstopper om niet te gaan starten.

918
00:38:09,040 --> 00:38:10,020
Alsjeblieft, doe dat niet.

919
00:38:10,020 --> 00:38:13,420
We zijn ook echt benieuwd naar...

920
00:38:13,420 --> 00:38:17,700
Van stel je zou helemaal vrij mogen dromen over AI.

921
00:38:17,700 --> 00:38:20,720
En dat hoeft niet binnen je sector of bedrijven te zijn.

922
00:38:20,720 --> 00:38:22,160
Het mag ook in je privéleven zijn.

923
00:38:22,160 --> 00:38:27,720
Wat zou nou het ultieme zijn waarbij AI je zou kunnen helpen?

924
00:38:28,080 --> 00:38:50,360
Heb je een idee?

925
00:38:51,140 --> 00:38:51,860
Ja, leuk.

926
00:38:51,860 --> 00:38:53,220
Ja, ik denk aan twee dingen.

927
00:38:53,220 --> 00:38:56,660
Dus ja, ik zou wel...

928
00:38:56,660 --> 00:38:59,360
Ik zou heel graag een soort superassistent willen.

929
00:38:59,360 --> 00:38:59,940
Oh ja.

930
00:38:59,940 --> 00:39:01,700
En...

931
00:39:01,700 --> 00:39:02,520
Wat gaat hij voor je doen?

932
00:39:02,520 --> 00:39:03,400
Dus ik vind het wel gemis.

933
00:39:03,400 --> 00:39:04,820
Wat gaat het voor je doen?

934
00:39:04,820 --> 00:39:05,240
Wat is het?

935
00:39:05,240 --> 00:39:05,480
Ja.

936
00:39:06,160 --> 00:39:07,400
Eigenlijk van...

937
00:39:07,400 --> 00:39:10,400
Nou, van het maken van afspraken...

938
00:39:10,400 --> 00:39:12,400
Tot het...

939
00:39:12,400 --> 00:39:14,860
Regelen van de kinderopvang.

940
00:39:14,860 --> 00:39:18,380
Tot en met eigenlijk het vinden van de accessoires bij mijn outfit.

941
00:39:18,380 --> 00:39:21,120
En nu zullen er mensen denken van...

942
00:39:21,120 --> 00:39:21,920
Ja, maar dat kan al.

943
00:39:21,920 --> 00:39:26,240
Maar het zou wel fijn zijn dat dat één assistent is...

944
00:39:26,240 --> 00:39:27,340
Die dat voor mij zou regelen.

945
00:39:27,340 --> 00:39:29,400
Dus dat het gemak...

946
00:39:29,400 --> 00:39:32,540
Ja, en de thuisbesparing die ik daarvan zou ondervinden...

947
00:39:32,540 --> 00:39:33,900
Ik denk, daar zie ik wel naar uit.

948
00:39:33,900 --> 00:39:34,340
Oh ja.

949
00:39:34,820 --> 00:39:36,240
Het tweede wat ik graag zou willen...

950
00:39:36,240 --> 00:39:37,820
En daar ben ik dan...

951
00:39:37,820 --> 00:39:39,820
Ja, met Digital Shapers ook wel echt mee bezig is...

952
00:39:39,820 --> 00:39:44,080
Ja, en dat is dan echt even dromen.

953
00:39:44,080 --> 00:39:45,220
Want dat zegt het liefst ook.

954
00:39:45,220 --> 00:39:45,880
Zeker, zeker.

955
00:39:45,880 --> 00:39:46,380
Ja, ja.

956
00:39:46,380 --> 00:39:49,820
Ja, dat we dit echt als samenleving...

957
00:39:49,820 --> 00:39:52,840
Gaan omarmen, deze ontwikkelingen.

958
00:39:52,840 --> 00:39:56,820
Om toch bepaalde maatschappelijke vraagstukken op te pakken.

959
00:39:56,820 --> 00:40:00,820
En waar technologie misschien...

960
00:40:00,820 --> 00:40:04,420
In eerste instantie iets onmenselijks is.

961
00:40:04,420 --> 00:40:09,420
Dat toch in te zetten om juist dichter bij elkaar te komen...

962
00:40:09,420 --> 00:40:11,420
Werken aan maatschappelijke vraagstukken.

963
00:40:11,420 --> 00:40:15,920
En ik hoop dus dat het ons creatiever maakt.

964
00:40:15,920 --> 00:40:20,480
En dat we met z'n allen het net even wat leuker gaan vinden.

965
00:40:20,480 --> 00:40:24,420
En dat ik denk als we in staat zijn om...

966
00:40:24,420 --> 00:40:29,080
En ik denk dat dat heel erg ook moet door mensen die er verstand van hebben...

967
00:40:29,080 --> 00:40:33,080
Ook heel goed uitleggen wat de positieve impact kan zijn van het gebruik van AI.

968
00:40:33,080 --> 00:40:35,820
Bijvoorbeeld in de publieke sector.

969
00:40:35,820 --> 00:40:39,420
Of in het transport, in de financiële, in de gezondheidszorg.

970
00:40:39,420 --> 00:40:45,760
Ja, dat we wat positiever als burgers gaan kijken naar de toepassing daarvan.

971
00:40:45,900 --> 00:40:51,260
En nu is er gewoon toch veel aandacht voor daar waar het verkeerd wordt ingezet.

972
00:40:51,260 --> 00:40:52,740
Of waar de burger benadeelt.

973
00:40:52,740 --> 00:40:52,960
Ja.

974
00:40:53,360 --> 00:40:57,140
En ja, dat is wel een droom die ik heb.

975
00:40:57,140 --> 00:41:01,380
En ik probeer wel in het dagelijks werk ook te kijken van hoe kunnen wij dit nou leuk maken.

976
00:41:01,380 --> 00:41:03,380
En vandaar ook bijvoorbeeld zo'n reis.

977
00:41:03,380 --> 00:41:05,360
En ik zei het net al even van...

978
00:41:05,360 --> 00:41:08,760
De bus hebben we een rondje met een microfoon gemaakt en snoep uitgedeeld.

979
00:41:08,760 --> 00:41:10,440
Want je moet het ook leuk maken.

980
00:41:10,440 --> 00:41:11,860
Ja, precies.

981
00:41:11,860 --> 00:41:22,160
En zie je ergens al elementen dat het ons ook helpt op een bepaald maatschappelijk vraagstuk?

982
00:41:22,620 --> 00:41:23,260
Ja, zeker.

983
00:41:23,260 --> 00:41:26,560
En een mooi voorbeeld is Kickstart AI.

984
00:41:26,560 --> 00:41:30,520
Waar de community van AI-specialisten in Nederland...

985
00:41:30,520 --> 00:41:35,020
Of zij proberen de AI-specialisten en data-scientisten ook in een community te verenigen.

986
00:41:35,020 --> 00:41:36,660
Zodat ze elkaar kunnen inspireren.

987
00:41:36,660 --> 00:41:43,880
Maar zij hebben ook heel sterk een drijfveer om met hun expertise te werken of bij te dragen aan maatschappelijke vraagstukken.

988
00:41:43,880 --> 00:41:45,680
Ze werken bijvoorbeeld voor de voedselbank.

989
00:41:45,680 --> 00:41:46,240
Oh ja.

990
00:41:46,240 --> 00:41:53,140
Om betere voorspellingen te kunnen doen van hoeveel voedsel er nodig is.

991
00:41:53,140 --> 00:41:56,360
Hoeveel pakketten er nodig zijn op welk moment waar.

992
00:41:56,360 --> 00:42:04,220
Maar er zijn natuurlijk ook zat voorbeelden van hoe het ons helpt in bijvoorbeeld dienstregeling van de NS.

993
00:42:04,220 --> 00:42:07,520
Of toch ook echt wel in de gezondheidszorg.

994
00:42:08,300 --> 00:42:12,800
Ik denk zeker daar waar het publieke sector voorzieningen betreft.

995
00:42:12,800 --> 00:42:14,480
Daar zijn ook zat goede voorbeelden.

996
00:42:14,480 --> 00:42:15,840
Mooi.

997
00:42:15,840 --> 00:42:17,080
Ik was nog wel nieuwsgierig.

998
00:42:17,080 --> 00:42:18,880
Kunnen we het leuker maken?

999
00:42:18,880 --> 00:42:26,120
Zie je dat leuk hebben of het gevoel van leuk vinden nog effect heeft in de adoptie tijdens de digitale transformatie?

1000
00:42:26,820 --> 00:42:27,680
Ja, 100%.

1001
00:42:27,680 --> 00:42:30,140
Daarom benoem ik het ook inderdaad.

1002
00:42:30,140 --> 00:42:32,980
Ja, dus ook een voorbeeld.

1003
00:42:32,980 --> 00:42:35,780
Wij doen af en toe escape rooms.

1004
00:42:35,780 --> 00:42:39,340
We zijn ooit begonnen met een digital escape room en die was vrij algemeen.

1005
00:42:39,340 --> 00:42:43,420
Waarin we bijvoorbeeld ook mensen van verschillende niveaus.

1006
00:42:43,420 --> 00:42:46,600
We zijn het ooit gestart bij luchthaven.

1007
00:42:48,240 --> 00:42:58,340
En je zag dat door mensen in spelvorm kennis te laten maken met bepaalde technologie of in te laten loggen op social media of gebruik te laten maken van een taalmodel.

1008
00:42:58,340 --> 00:43:03,400
Haal je eigenlijk de focus weg van je moet iets leren of jij kan iets niet.

1009
00:43:03,400 --> 00:43:12,840
En ook door dat in teamvorm te doen, en met een competitief element, geldt natuurlijk niet voor iedere organisatie of iedere persoon.

1010
00:43:12,840 --> 00:43:19,040
Maar kan dat heel erg, ja, dan wordt het gewoon leuk.

1011
00:43:19,040 --> 00:43:20,000
Nog een keer dat woord.

1012
00:43:20,000 --> 00:43:23,600
En haal je dus bepaalde angst weg of bepaalde druk weg.

1013
00:43:23,600 --> 00:43:27,840
En kan je vervolgens heel goed een gesprek starten van, hé, waar ben jij eigenlijk, wat heb je eigenlijk net gedaan?

1014
00:43:27,840 --> 00:43:28,820
En wat heb je gebruikt?

1015
00:43:28,820 --> 00:43:30,620
En hoe zou je dat in je werk kunnen toepassen?

1016
00:43:30,620 --> 00:43:32,260
Wat zou je nog willen leren?

1017
00:43:32,260 --> 00:43:33,820
Wie kan je erbij helpen?

1018
00:43:33,820 --> 00:43:40,200
Dus dat is bijvoorbeeld zoiets om bewustzijn te genereren en dat op een aardige manier te doen.

1019
00:43:40,580 --> 00:43:44,580
En ja, dan staan mensen er heel anders tegenover over het algemeen.

1020
00:43:44,580 --> 00:43:46,620
Ja, dus horen krijg twee dingen inderdaad.

1021
00:43:46,620 --> 00:43:48,000
Een stukje buiten eigen context.

1022
00:43:48,000 --> 00:43:51,860
Zodat je inderdaad even in een andere omgeving, in zo'n escape room, eigenlijk de kennis kan opdoen.

1023
00:43:51,860 --> 00:43:53,620
Het leuke, dat je het blijft herinneren.

1024
00:43:53,620 --> 00:43:55,160
En dat is eigenlijk ook het gesprekstof.

1025
00:43:55,160 --> 00:43:58,080
Hoe kan ik dat weer vertalen naar hoe ik dat in mijn werk zou kunnen toepassen?

1026
00:43:58,080 --> 00:44:07,240
Ja, en als je dan een training aanbiedt, dan zijn mensen ook veel genegener om dat één actief te volgen en twee dat ook te gaan toepassen.

1027
00:44:07,240 --> 00:44:08,160
Ja, mooi.

1028
00:44:08,160 --> 00:44:13,640
Welke belangrijke vragen hebben wij gemist om die aan jou te stellen?

1029
00:44:13,640 --> 00:44:23,140
Nou, iets wat dan nu als eerste in mijn hoofd opkomt, en ik weet niet of het een vraag is, maar wel iets wat mij recent wel bezig heeft gehouden.

1030
00:44:23,920 --> 00:44:27,580
En ik ben ook benieuwd naar jullie kijk daarop.

1031
00:44:27,580 --> 00:44:34,680
Is dat nu veel gesproken wordt over het inzetten van AI om productiviteitswinsten balen.

1032
00:44:36,940 --> 00:44:42,640
Maar eigenlijk, en dat is hartstikke goed, er is heel veel productiviteitswinsten balen.

1033
00:44:42,640 --> 00:44:48,400
Maar eigenlijk zou je denken dat we ook veel sneller zouden kunnen innoveren.

1034
00:44:48,400 --> 00:44:56,020
Nou, en ongetwijfeld heb je daar ook gesprekken over gehad, van hoe kan je nou Nederland innovatiever maken en hoe kunnen we meer focus op kunnen leggen.

1035
00:44:56,560 --> 00:45:04,640
Maar ik zou eigenlijk wel een soort oproep willen doen aan met name mensen op leidinggevende posities van, ja, wees nou eens eerlijk.

1036
00:45:04,640 --> 00:45:09,540
Stel nou dat jij vier keer zo snel, vier keer zoveel plannen tegelijk zou kunnen uitvoeren.

1037
00:45:09,540 --> 00:45:11,480
Of vier keer zo snel je doel zou kunnen behalen.

1038
00:45:11,480 --> 00:45:14,480
Ja, kan je dat eigenlijk zelf wel formuleren?

1039
00:45:14,480 --> 00:45:15,740
Of kan je dat zelf bijhouden?

1040
00:45:15,740 --> 00:45:17,580
En kan je zelf bedenken wat je dan zou willen?

1041
00:45:17,840 --> 00:45:19,500
En dat zou ik willen challengen.

1042
00:45:19,500 --> 00:45:21,920
En ik ben benieuwd hoe jullie daarin over denken.

1043
00:45:21,920 --> 00:45:26,320
Want ik denk dat dan de mens in die zin dan weer de beperkende factor zou kunnen zijn.

1044
00:45:26,320 --> 00:45:32,480
Dus dat we ons zelf misschien wel klein houden, omdat we dat zelf nog niet kunnen bedenken.

1045
00:45:32,480 --> 00:45:36,640
En ik hoop dat we AI meer ook op die manier gaan toepassen.

1046
00:45:36,640 --> 00:45:38,680
En daar, ja, dus vanuit de innovatiehoek.

1047
00:45:38,680 --> 00:45:39,500
En ik ben benieuwd naar jullie.

1048
00:45:39,500 --> 00:45:40,360
Jullie kijken daarop.

1049
00:45:40,360 --> 00:45:41,580
Zal ik beginnen?

1050
00:45:41,580 --> 00:45:44,960
Ik vind het wel een mooie.

1051
00:45:44,960 --> 00:45:48,740
Laatst heb ik daar inderdaad ook wat discussies over gevoerd.

1052
00:45:48,740 --> 00:45:55,500
En wat je zag is denk ik dat de ontwikkeling van de auto daar een mooi voorbeeld in is.

1053
00:45:55,500 --> 00:45:59,860
Van in het begin, toen de technologie van de verbrandingsmotor kwam.

1054
00:45:59,860 --> 00:46:03,240
En als jij nu gaat zoeken, zeg maar, naar de eerste auto's.

1055
00:46:03,240 --> 00:46:06,880
Wat je gaat zien is dat dat gemotoriseerde koetsen waren.

1056
00:46:06,880 --> 00:46:11,700
Dus het enige wat ze aan het doen waren, waren eigenlijk bestaande dingen.

1057
00:46:11,700 --> 00:46:14,480
Dat dat wat sneller ging.

1058
00:46:14,480 --> 00:46:17,120
Zou je kunnen zien als productiviteitsverandering.

1059
00:46:17,120 --> 00:46:23,160
Terwijl als we nu naar de auto kijken, is het veel meer geworden dan de gemotoriseerde koetsen.

1060
00:46:23,160 --> 00:46:24,080
Dus hij moet van alles.

1061
00:46:24,080 --> 00:46:27,200
Ja, dat is gewoon volledig veranderd.

1062
00:46:27,200 --> 00:46:29,180
Dus ik geloof inderdaad wat jij zegt.

1063
00:46:29,180 --> 00:46:33,780
Van ga het nou gebruiken om na te denken over innovatie.

1064
00:46:35,360 --> 00:46:39,580
En dat je nu heel veel sneller kan experimenteren.

1065
00:46:39,580 --> 00:46:43,700
Heel snel resultaat kan zien.

1066
00:46:43,700 --> 00:46:49,160
Dus je hoeft niet nu dagen of weken of maanden te experimenteren.

1067
00:46:49,160 --> 00:46:50,340
Maar je kan heel klein beginnen.

1068
00:46:50,340 --> 00:46:53,000
Wij zitten ook heel veel in de softwareontwikkeling.

1069
00:46:53,000 --> 00:46:57,860
Dus je kan nu heel snel bijvoorbeeld een user interface even genereren.

1070
00:46:58,300 --> 00:47:01,280
Echt laten zien van zo zou het nu kunnen werken.

1071
00:47:01,280 --> 00:47:03,500
Als je hier en hier op klikt gebeurt dit en dit en dit.

1072
00:47:03,500 --> 00:47:08,260
Als je dat met de gebruikers direct kan gaan bespreken.

1073
00:47:09,320 --> 00:47:12,200
bespaar je niet alleen heel veel tijd.

1074
00:47:12,200 --> 00:47:18,020
Maar je kan op dat moment kan je ook iteratief het meteen gaan aanpakken.

1075
00:47:18,020 --> 00:47:19,220
Dan zeggen van nee, maar dat gaan we anders doen.

1076
00:47:19,220 --> 00:47:20,680
Of ik heb een heel gek idee.

1077
00:47:20,680 --> 00:47:22,980
Laten we daar eens een half uur insteken of een uur.

1078
00:47:22,980 --> 00:47:28,260
Dus ik denk dat er heel veel mogelijkheden zitten in dat je veel vrijer bent.

1079
00:47:28,260 --> 00:47:31,680
En veel sneller iets kan uitproberen.

1080
00:47:31,680 --> 00:47:32,340
Ja.

1081
00:47:32,340 --> 00:47:35,980
En zou je dan ook durven je KPIs durven bijstellen?

1082
00:47:35,980 --> 00:47:43,900
We zouden gewoon twee keer zo veel experimenten moeten kunnen uitvoeren binnen deze tijd.

1083
00:47:43,900 --> 00:47:45,040
Als doelstelling.

1084
00:47:45,040 --> 00:47:47,920
Om dus jezelf te dwingen om daar AI voor te gebruiken.

1085
00:47:47,920 --> 00:47:51,820
Want door leren doe je door vallen en opstaan.

1086
00:47:51,820 --> 00:47:53,600
Dus hoe meer je dat doet.

1087
00:47:53,600 --> 00:47:58,660
Hoe sneller je uiteindelijk beweegt naar waar je naartoe wil wat je kan.

1088
00:47:58,660 --> 00:48:01,620
Juist door het heel vaak te doen.

1089
00:48:01,620 --> 00:48:03,380
Die mogelijkheid heb je nu.

1090
00:48:04,040 --> 00:48:06,740
En ik ben bang dat we eerst nog door de stap moeten moeten.

1091
00:48:06,740 --> 00:48:08,900
Dat we toch die gemotoriseerde koetsen gaan krijgen.

1092
00:48:08,900 --> 00:48:09,560
Ja.

1093
00:48:09,560 --> 00:48:10,600
Om daarop aan te haken.

1094
00:48:10,600 --> 00:48:11,980
Wat je gaat meten.

1095
00:48:11,980 --> 00:48:13,060
Daar ga je naartoe bewegen.

1096
00:48:13,060 --> 00:48:15,000
Dus als je inderdaad die KPI gaat aanpassen.

1097
00:48:15,000 --> 00:48:18,860
Dan ga je ook automatisch met elkaar richten op hetgene van de verandering.

1098
00:48:18,860 --> 00:48:22,560
Dus ik denk dat het heel waardevol is om juist wel die KPI scherp en ambitieus neer te zetten.

1099
00:48:22,560 --> 00:48:24,700
En ik denk ook inderdaad om aan te haken.

1100
00:48:24,700 --> 00:48:26,840
En dat was het stukje wat ik dan inderdaad mee wilde geven.

1101
00:48:26,840 --> 00:48:31,540
Dat we op sommige mensen op het niveau zijn van het heel anders te zien.

1102
00:48:31,540 --> 00:48:34,900
Maar dat de verandering voor velen nog te groot is om daar al te staan.

1103
00:48:34,900 --> 00:48:36,620
En dat we dus eerst nog mee moeten.

1104
00:48:36,620 --> 00:48:38,640
En mensen moeten helpen in de reis daar naartoe.

1105
00:48:38,640 --> 00:48:41,580
En dat is in het begin efficiëntie om de tijd te hebben.

1106
00:48:41,580 --> 00:48:43,380
Om dat volgende stapje te gaan zien.

1107
00:48:43,380 --> 00:48:47,180
Dus ik denk dat we nu zien dat de massa een beetje mee gaat.

1108
00:48:47,180 --> 00:48:50,040
Of mee gaat komen om die vrijheid te krijgen.

1109
00:48:50,040 --> 00:48:51,840
Om over de volgende stap na te kunnen gaan denken.

1110
00:48:51,940 --> 00:48:54,240
En er zijn altijd al een paar frontrunners die erover nadenken.

1111
00:48:54,240 --> 00:48:56,160
En dat is misschien mijn net momentum.

1112
00:48:56,160 --> 00:48:59,600
En misschien is dat momentum voor sommige ideeën nog iets te vroeg.

1113
00:48:59,600 --> 00:49:01,660
Maar daar gaan we denk ik wel snel naartoe.

1114
00:49:01,660 --> 00:49:04,040
Dat we dingen echt anders gaan aanpakken.

1115
00:49:04,040 --> 00:49:08,500
Wat zou jij de luisteraar mee willen geven?

1116
00:49:08,500 --> 00:49:10,420
Als ze dit gehoord hebben.

1117
00:49:10,420 --> 00:49:12,540
Wat ze hierna gaan doen.

1118
00:49:12,540 --> 00:49:21,220
Ja, ik denk een samenvatting wellicht van het gesprek wat we gehad hebben.

1119
00:49:21,340 --> 00:49:22,700
En een aantal boodschappen daarin zitten.

1120
00:49:22,700 --> 00:49:28,360
Dus ik zou mensen willen uitdagen om de grens wat te verleggen.

1121
00:49:28,360 --> 00:49:31,740
Eigenlijk terugkomend op waar we het recent over hebben.

1122
00:49:31,740 --> 00:49:35,120
Van maak die doelstelling nou eens ambitieuzer bijvoorbeeld.

1123
00:49:35,120 --> 00:49:39,140
Of kijk eens waar je toch op een bepaalde manier iets kan forceren.

1124
00:49:39,140 --> 00:49:41,440
Ja, op een leuke manier.

1125
00:49:41,440 --> 00:49:42,820
Ja, precies.

1126
00:49:42,820 --> 00:49:47,500
En vergeet daarin niet inderdaad om mensen op een goede manier daarin te benaderen.

1127
00:49:47,500 --> 00:49:49,400
En juist uit te dagen of uit te nodigen.

1128
00:49:50,040 --> 00:49:52,140
Ik denk dat daar wel echt een boodschap ligt.

1129
00:49:52,140 --> 00:49:56,800
Ik denk niet dat we met z'n allen nog over het urgentievraagstuk hoeven te hebben.

1130
00:49:56,800 --> 00:49:57,140
Nee toch?

1131
00:49:57,140 --> 00:49:57,500
Nee.

1132
00:49:58,960 --> 00:50:01,580
Maar ja, dan is er dus ook nu echt momentum.

1133
00:50:01,580 --> 00:50:03,900
Dus denk daar dan eens over na.

1134
00:50:03,900 --> 00:50:07,060
Hoe kan ik dat momentum benutten?

1135
00:50:07,060 --> 00:50:09,820
En dat betekent wel iets meer of iets anders doen, denk ik.

1136
00:50:09,820 --> 00:50:12,640
Nou, wat ik in ieder geval...

1137
00:50:12,640 --> 00:50:15,320
Wij doen dit soort gesprekken trouwens ook om zelf te leren.

1138
00:50:15,320 --> 00:50:16,480
Dat maakt dat zo leuk.

1139
00:50:16,480 --> 00:50:18,960
Wat ik vandaag geleerd heb is...

1140
00:50:18,960 --> 00:50:24,900
Ik ga heel erg nadenken toch wel over het idee wat je opperde van mensen hun eigen videoboodschap of geschreven.

1141
00:50:24,900 --> 00:50:29,700
Of in een vorm zeg maar uitdagen om na te denken over hun eigen werk.

1142
00:50:30,200 --> 00:50:33,580
Dat lijkt mij echt een hele leuke om die eens even op te gaan pakken.

1143
00:50:33,580 --> 00:50:34,300
Zeker.

1144
00:50:34,300 --> 00:50:39,880
En degene die bij mij echt wel getriggerd heeft is de communicatie van persoon naar persoon.

1145
00:50:39,880 --> 00:50:41,140
Maar dadelijk van agent naar agent.

1146
00:50:41,140 --> 00:50:45,380
Dat er misschien wel andere manieren nodig gaan zijn om de acties voor elkaar te krijgen.

1147
00:50:45,380 --> 00:50:48,160
Omdat je niet meer met een persoon te maken hebt, maar met een agent van een persoon.

1148
00:50:48,160 --> 00:50:49,620
Dat heeft mij echt wel aan het denken gezet.

1149
00:50:50,100 --> 00:50:53,140
Marelle, hartstikke bedankt voor je heldere uitleg.

1150
00:50:53,140 --> 00:50:55,620
En dat je hier dit met ons wilde delen.

1151
00:50:55,620 --> 00:50:57,180
Ja, dank voor het leuke gesprek.

1152
00:50:57,180 --> 00:50:58,260
Hetzelfde.

1153
00:50:58,260 --> 00:51:03,020
Leuk dat je weer luisterde naar deze aflevering van AIToday Live.

1154
00:51:03,020 --> 00:51:08,700
Denk er eens aan om je te abonneren via je favoriete podcast app.

1155
00:51:08,700 --> 00:51:10,460
Want dan mis je geen aflevering.

1156
00:51:10,460 --> 00:51:13,580
Bij Spotify kan je ook nog een rating geven.

1157
00:51:13,580 --> 00:51:14,640
Dat helpt ons.

1158
00:51:14,640 --> 00:51:18,340
Dus als je daar even wat voor ons zou kunnen betekenen, heel graag.

1159
00:51:18,340 --> 00:51:19,400
Tot de volgende keer.

1160
00:51:19,640 --> 00:51:20,340
Tot de volgende keer!

1161
00:51:20,340 --> 00:51:23,060
[Muziek]


People on this episode