AIToday Live

S07E25 - Zo begeleid je jouw team naar een doordachte AI-aanpak met Kim Pot

Aigency by Info Support Season 7 Episode 25

Kim Pot, auteur van "Werk hand in hand met AI", deelt inzichten over effectieve AI-integratie in teams. Het boek biedt managers een gestructureerde aanpak om AI in werkprocessen en teamcultuur te implementeren.

Pot benadrukt het belang van een duidelijke teamvisie, richtlijnen en kaders voor AI-gebruik. Ze adviseert kritisch te kijken naar werkprocessen en te investeren in kennis en vaardigheden van teamleden.

Een open cultuur waarin experimenteren mogelijk is, staat centraal in Pot's aanpak. Het boek is breed verkrijgbaar en biedt een praktisch stappenplan voor teams die serieus met AI aan de slag willen.

Onderwerpen

  • Integratie van AI in teamprocessen
  • Gestructureerde aanpak voor AI-implementatie
  • Ontwikkeling van teamvisie en beleid rondom AI
  • Investeren in kennis en vaardigheden van teamleden
  • Toekomstvisie op AI-agents en multidisciplinaire samenwerking

Links

Genoemde entiteiten: Kim Pot

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:05,280
Als jouw team experimenteert met AI, maar je worstelt met de vraag hoe je dit effectief

2
00:00:05,280 --> 00:00:10,400
kunt structureren en inbedden in de dagelijkse werkzaamheden, dan is deze aflevering een

3
00:00:10,400 --> 00:00:11,400
must-listen.

4
00:00:11,400 --> 00:00:17,480
Kim Pot legt uit waarom managers vaak innovatie tegenhouden en hoe je dit kunt ombuigen naar

5
00:00:17,480 --> 00:00:19,680
een positieve kracht voor je team.

6
00:00:19,680 --> 00:00:25,719
Ze deelt praktische inzichten uit haar nieuwe boek Werk Hand in Hand met AI over hoe je

7
00:00:25,719 --> 00:00:30,719
als leidinggevende de stap kunt maken van losse AI-experimenten naar een doordachte

8
00:00:30,719 --> 00:00:33,959
teamaanpak zonder de menselijke kant uit het oog te verliezen.

9
00:00:33,960 --> 00:00:40,559
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

10
00:00:40,559 --> 00:00:46,399
En ja, we gaan het hebben over een boek, een heel bijzonder boek.

11
00:00:46,399 --> 00:00:48,599
Werk hand in hand met AI, met Kim Pot.

12
00:00:48,599 --> 00:00:50,799
Mijn naam Joop Snijder, CTO bij Aigency.

13
00:00:50,799 --> 00:00:54,419
Ja, mijn naam Niels Naglé, Area Lead Data & AI en ik heb er weer zin in.

14
00:00:54,419 --> 00:00:59,279
Zeker. En ja, Kim, fijn dat je in de studio wilt zijn.

15
00:00:59,279 --> 00:00:59,919
Groot eer.

16
00:00:59,919 --> 00:01:03,699
Nou, maar even om heel transparant te zijn.

17
00:01:03,699 --> 00:01:09,179
We vinden transparantie in AI heel belangrijk, maar dan moeten we ook heel transparant zijn in de podcast.

18
00:01:09,179 --> 00:01:13,879
Jij bent hoofd van onze productie, maar in die rol zit je hier nu niet.

19
00:01:13,879 --> 00:01:17,999
Dus je hebt een prachtig boek geschreven over werken met AI.

20
00:01:17,999 --> 00:01:20,899
En we hebben je uitgenodigd als auteur.

21
00:01:20,899 --> 00:01:22,039
Ja, heel leuk.

22
00:01:22,039 --> 00:01:24,679
Zou je jezelf eerst even willen voorstellen aan de luisteraars?

23
00:01:24,679 --> 00:01:28,799
Ik ben Kim Pot, ik werk nu drie jaar bij Info Support en bij Aigency.

24
00:01:29,739 --> 00:01:32,619
Ik doe er nog heel veel naast, waaronder boeken schrijven sinds kort.

25
00:01:32,619 --> 00:01:35,559
Dus een jaar geleden ongeveer aan dit boek begonnen.

26
00:01:35,559 --> 00:01:39,059
Waarom? Ik zag, ik deed heel veel trainingen.

27
00:01:39,059 --> 00:01:42,339
En ik zag bij heel veel organisaties eigenlijk dezelfde problemen.

28
00:01:42,339 --> 00:01:45,659
En we hebben er toen eens in gaan verdiepen en dacht, dat schrijf ik wel even op.

29
00:01:45,659 --> 00:01:51,359
Ja, en hoe ben je als marketeer in aanraking gekomen met AI?

30
00:01:51,359 --> 00:01:55,959
Ja, eigenlijk net als bijna iedereen door de opkomst van ChatGPT.

31
00:01:55,959 --> 00:01:57,499
Daar begin ik mijn boek ook mee.

32
00:01:57,619 --> 00:01:59,679
Ik wilde eigenlijk gewoon een keer over mijn sprekersangst heen.

33
00:01:59,679 --> 00:02:01,599
Ik dacht, ik duik het podium op.

34
00:02:01,599 --> 00:02:03,019
Toen kwam ChatGPT uit.

35
00:02:03,019 --> 00:02:04,639
Ik dacht, nou leuk, relevant onderwerp.

36
00:02:04,639 --> 00:02:06,339
En dat sloeg toen goed aan.

37
00:02:06,339 --> 00:02:08,258
En toen dacht ik, hé, dit is eigenlijk ook wel heel tof.

38
00:02:08,258 --> 00:02:09,699
Waarom?

39
00:02:09,699 --> 00:02:13,959
Ik vind marketing heel leuk, omdat het een heel dynamisch vakgebied is.

40
00:02:13,959 --> 00:02:17,359
En AI zorgde ervoor dat die dynamiek weer even werd versterkt.

41
00:02:17,499 --> 00:02:21,859
En dat we echt weer even opnieuw hebben moeten kijken naar hoe werken we eigenlijk.

42
00:02:21,859 --> 00:02:25,819
En welke verandering zag je ontstaan?

43
00:02:26,479 --> 00:02:30,059
Vooral natuurlijk in het begin op het gebied van contentcreatie heel veel.

44
00:02:30,059 --> 00:02:35,679
Dat mensen die niet zo goed zijn met tekst ineens dachten, hé, ik kan nu zelf ook een tekst maken.

45
00:02:35,679 --> 00:02:37,899
Maar ook dat werk sneller kan.

46
00:02:37,899 --> 00:02:43,379
Waar je normaal gesproken als marketeer misschien een half dag bezig bent met het maken van een blog.

47
00:02:43,379 --> 00:02:47,019
Die omschrijven naar een stukje voor LinkedIn, een stukje voor je nieuwsbrief.

48
00:02:47,019 --> 00:02:49,419
Kan dat nu natuurlijk met één druk op de knop.

49
00:02:49,959 --> 00:02:51,579
Dus ik zag in het begin vooral veel chaos.

50
00:02:51,579 --> 00:02:53,839
Ook een klein beetje angst wel.

51
00:02:53,839 --> 00:02:56,139
Vooral meer de contentmarketeers.

52
00:02:56,139 --> 00:02:57,739
Van, hé, bestaat mijn werk straks nog wel.

53
00:02:57,739 --> 00:02:59,479
Maar vooral ook heel veel lol.

54
00:02:59,479 --> 00:03:01,439
Van, oh, dit is wel heel tof wat het allemaal kan.

55
00:03:01,439 --> 00:03:01,899
Oh ja.

56
00:03:01,899 --> 00:03:05,159
Heel veel, dat zag ik bij veel marketeers, een beetje experimenteerdrang.

57
00:03:05,159 --> 00:03:06,799
Van, nou ja, laat maar zien wat het allemaal kan.

58
00:03:06,799 --> 00:03:11,199
En werd die experimenteerdrang dan aangewakkerd?

59
00:03:11,199 --> 00:03:15,199
Was het daarvoor een beetje minder geworden dan?

60
00:03:15,199 --> 00:03:17,239
Ik ga me hier niet populair meemaken.

61
00:03:17,239 --> 00:03:19,859
Maar ik vond de meeste marketeers wel een beetje mak.

62
00:03:19,859 --> 00:03:20,239
Ja.

63
00:03:20,239 --> 00:03:24,039
En ik denk dat het echt wel iets goeds heeft gedaan voor het vakgebied.

64
00:03:24,039 --> 00:03:28,879
Dat we echt zijn gaan kijken naar waar kunnen wij als marketeer nou de toegevoegde waarde leveren.

65
00:03:28,879 --> 00:03:32,879
En we doen ook een heleboel werk waar dat niet per se in zit.

66
00:03:32,879 --> 00:03:33,979
Maar wat wel moet gebeuren.

67
00:03:33,979 --> 00:03:37,099
En waar AI nu een deel van kan overnemen.

68
00:03:37,099 --> 00:03:41,019
Zodat we juist meer ruimte hebben om echt lekker creatief bezig te zijn.

69
00:03:41,019 --> 00:03:42,599
Kan je daar een voorbeeld van geven?

70
00:03:42,599 --> 00:03:43,779
Zeker.

71
00:03:43,779 --> 00:03:48,099
Ik denk dat bij Info Support hebben we een mooi voorbeeld qua contentprocessen.

72
00:03:48,339 --> 00:03:50,579
We zitten hier met een team van ongeveer negen man.

73
00:03:50,579 --> 00:03:53,999
Maar we bedienen een vrij grote organisatie.

74
00:03:53,999 --> 00:03:58,899
Door AI hebben we bijvoorbeeld onze collega's wat meer in de spotlight kunnen zetten.

75
00:03:58,899 --> 00:04:03,199
Wat we nu bij een aantal events hebben getest is om daar video's op te nemen.

76
00:04:03,199 --> 00:04:05,519
Of collega's op te bellen in de auto.

77
00:04:05,519 --> 00:04:11,219
En van die transcripts maken we artikelen en uiteindelijk ook weer andere vormen van content.

78
00:04:11,759 --> 00:04:13,599
En dat hadden we zonder AI nooit kunnen doen.

79
00:04:13,599 --> 00:04:16,319
Dan was het een beetje bij die informatieve content gebleven.

80
00:04:16,319 --> 00:04:19,879
Waar we dan twee maanden over doen voordat het online staat.

81
00:04:19,879 --> 00:04:22,919
Dus aan dat soort voorbeelden kun je denken.

82
00:04:22,919 --> 00:04:25,299
Dat vind ik een hele grote verrijking voor mijn werk.

83
00:04:25,299 --> 00:04:28,699
En hoe ziet dat proces eruit van, wat je zegt, interview in de auto.

84
00:04:28,699 --> 00:04:29,359
Ja.

85
00:04:29,359 --> 00:04:33,699
Gaat de AI automatisch het artikel schrijven en wordt het dan gepubliceerd?

86
00:04:33,699 --> 00:04:34,159
Nee, nog niet.

87
00:04:34,159 --> 00:04:35,459
We hebben eigenlijk twee smaken ervan.

88
00:04:35,459 --> 00:04:37,639
Of we nemen echt een video op.

89
00:04:37,639 --> 00:04:40,319
Gewoon op de ouderwetse manier met een camera en al.

90
00:04:41,539 --> 00:04:44,459
En dan maken we van die video, maken we met AI een transcript.

91
00:04:44,459 --> 00:04:48,059
Met een andere AI tool maken we van het transcript een artikel.

92
00:04:48,059 --> 00:04:51,279
Er zit altijd nog wel een mens ook, human in the loop.

93
00:04:51,279 --> 00:04:56,119
En als we dan het artikel af hebben, maken we er social berichten van.

94
00:04:56,119 --> 00:04:58,799
Maar die combineren we dan bijvoorbeeld ook weer met shorts uit de video.

95
00:04:58,799 --> 00:05:03,679
En op het moment dat we dat in de auto doen met bellen, dan nemen we het nu op.

96
00:05:03,679 --> 00:05:06,139
Bijvoorbeeld met een tool als Fireflies.

97
00:05:06,139 --> 00:05:09,099
Dan maken we daar weer een transcript van.

98
00:05:09,099 --> 00:05:10,459
En dan is het proces eigenlijk hetzelfde.

99
00:05:10,599 --> 00:05:12,379
Oh ja, ook weer de mens in de...

100
00:05:12,379 --> 00:05:12,779
Precies.

101
00:05:12,779 --> 00:05:18,239
Maar het zorgt ervoor dat we veel meer focus kunnen hebben op wat voor content willen we eigenlijk maken.

102
00:05:18,239 --> 00:05:19,299
En hoe maken we die uniek?

103
00:05:19,299 --> 00:05:21,079
Mooi dat je dat verhoort.

104
00:05:21,079 --> 00:05:22,359
Ik zit dan aan de andere kant.

105
00:05:22,359 --> 00:05:23,379
Ik word dan geïnterviewd.

106
00:05:23,379 --> 00:05:25,079
En ook daar zie ik de meerwaarde in.

107
00:05:25,079 --> 00:05:30,259
Omdat ik dus meer tijd heb om kritische diepgang in het artikel te zetten.

108
00:05:30,259 --> 00:05:34,219
En ook weer terug te lezen wat ik dan weer vertel in zo'n interview.

109
00:05:34,219 --> 00:05:38,159
Leer ik ook weer door die conversatie nieuwe kennis op te doen.

110
00:05:38,159 --> 00:05:39,899
Of het op een andere manier over te kunnen brengen.

111
00:05:40,119 --> 00:05:42,699
Sowieso tijdwinst aan de ene kant, maar ook aan de andere kant.

112
00:05:42,699 --> 00:05:46,459
Dus ik ervaar het ook als heel erg fijn om ondersteuning te krijgen daarin.

113
00:05:46,459 --> 00:05:47,739
Gelukkig.

114
00:05:47,739 --> 00:05:48,939
Anders hadden we nu...

115
00:05:48,939 --> 00:05:50,879
Hadden we dit moeten uitvechten in jullie podcast.

116
00:05:50,879 --> 00:05:53,899
Nou, en denk ook qua vooronderzoek.

117
00:05:53,899 --> 00:05:57,299
Waar je normaal gesproken, als je iemand gaat interviewen, een collega, dan denk je...

118
00:05:57,299 --> 00:05:59,199
Wat wil ik weten over dit onderwerp?

119
00:05:59,199 --> 00:06:01,459
Maar nu gebruiken we daar ook AI voor.

120
00:06:01,459 --> 00:06:04,459
Dus we kijken echt van, oké, wat heeft een collega eerder gezegd?

121
00:06:04,459 --> 00:06:10,119
Wat zijn bijvoorbeeld artikelen over het thema of de ontwikkeling waar we die collega over willen interviewen?

122
00:06:10,119 --> 00:06:12,039
Dat delen we allemaal met AI.

123
00:06:12,039 --> 00:06:16,479
En op basis daarvan vragen we eigenlijk van, hey, denk eens met ons mee over scherpe interviewvragen.

124
00:06:17,139 --> 00:06:22,659
Waardoor je eigenlijk al aan de voorkant veel meer de diepte in kan dan, nou, vertel eens, wat betekent dit woord?

125
00:06:22,659 --> 00:06:23,779
En hoe zet je het in in je werk?

126
00:06:23,779 --> 00:06:24,139
Ja.

127
00:06:24,139 --> 00:06:25,219
Mooi.

128
00:06:25,219 --> 00:06:28,919
En je bent een boek gaan schrijven.

129
00:06:28,919 --> 00:06:31,999
Er zijn natuurlijk al best wel heel veel boeken over AI.

130
00:06:31,999 --> 00:06:33,659
Ja, mega veel.

131
00:06:33,659 --> 00:06:35,519
Ja, wat maakt jouw boek uniek?

132
00:06:35,519 --> 00:06:38,599
Sowieso natuurlijk dat ik het zelf heb geschenken.

133
00:06:38,599 --> 00:06:45,539
Nee, wat ik denk, wat mij een boek uniek maakt, is dat heel veel boeken gaan over hoe werkt AI en hoe pas je naartoe.

134
00:06:46,159 --> 00:06:51,299
Ook wel een aantal boeken over verhalen van mensen die het inderdaad in hun werk inzetten, hoe dat dan werkt.

135
00:06:51,299 --> 00:06:59,419
Mijn boek zit eigenlijk veel meer op de kant van, oké, we hebben allemaal met z'n allen geëxperimenteerd, maar hoe ga je er nu serieus mee aan de bak in je team?

136
00:06:59,419 --> 00:07:09,579
Dus het is gericht op managers die denken, oké, hoe ga ik mijn team eigenlijk begeleiden om AI een passende plek te geven in onze manier van werken en in onze teamcultuur.

137
00:07:09,579 --> 00:07:12,659
Dus het is wat tijdlozer dan de meeste AI boeken.

138
00:07:13,499 --> 00:07:17,079
En het zit veel meer op eigenlijk een stukje procesbegeleiding, zou je het bijna kunnen noemen.

139
00:07:17,079 --> 00:07:18,539
Ja, precies.

140
00:07:18,539 --> 00:07:23,539
En ook wel dus die, dat je het vanuit de leidinggevende kant insteekt.

141
00:07:23,539 --> 00:07:24,879
Ja, want ik zie heel vaak.

142
00:07:24,879 --> 00:07:27,239
En volgens mij is het er pas, ik weet even niet meer welk onderzoek het was.

143
00:07:27,239 --> 00:07:34,019
Volgens mij was het van Gartner dat leidinggevenden vaak innovatie tegenhouden.

144
00:07:34,559 --> 00:07:39,159
We vinden het spannend, ik kan me heel goed voorstellen ook, je moet toch leiding geven aan het team, je bent er verantwoordelijk voor.

145
00:07:39,159 --> 00:07:45,159
Je bent verantwoordelijk voor de resultaat en dan moet je nu ineens gaan kijken hoe AI je daarbij kan helpen.

146
00:07:45,159 --> 00:07:49,759
En hoe pak je dat nou gestructureerd aan zonder dat het totale chaos wordt?

147
00:07:49,759 --> 00:07:51,859
Ja, daar helpt mijn boek je hopelijk bij.

148
00:07:51,859 --> 00:07:52,819
Mooi.

149
00:07:53,179 --> 00:07:55,619
En gaat het dan over marketingmanagers?

150
00:07:55,619 --> 00:07:59,999
Nee, het is echt voor een hele brede groep eigenlijk iedereen die verantwoordelijk is voor een team.

151
00:07:59,999 --> 00:08:04,919
Mijn achtergrond zelf zit natuurlijk wel in de marketing, dus er zijn ook zeker wat marketingvoorbeelden in.

152
00:08:04,919 --> 00:08:11,419
Maar of je nou het schoonmaakteam of de HR-afdeling of een IT-afdeling aanstuurt,

153
00:08:11,419 --> 00:08:15,739
dit zit echt over het stukje, hoe neem je je team nou mee in AI?

154
00:08:15,739 --> 00:08:16,959
Mooi.

155
00:08:16,959 --> 00:08:20,099
En wat maakt het AI specifiek?

156
00:08:20,259 --> 00:08:25,059
Of is het überhaupt mensen meenemen in de verandering met extra spotlight op AI daarin?

157
00:08:25,059 --> 00:08:28,019
Er zit, want het is wel mooi dat je het vraagt.

158
00:08:28,019 --> 00:08:33,279
Want ja, er staat een interview met René de Bowen van KPMG.

159
00:08:33,279 --> 00:08:36,938
En die zei ook, ja weet je, eigenlijk gebeurt er niet iets nieuws.

160
00:08:36,938 --> 00:08:41,558
Het is net als toen we data gedreven gingen werken, werden we ook allemaal een beetje, oh moet dat nou?

161
00:08:41,558 --> 00:08:44,399
Ja, die stappen zijn eigenlijk steeds hetzelfde.

162
00:08:44,399 --> 00:08:48,939
Er ligt wel een focus op AI in, van oké, wat voor kennis heb je ook ervan nodig?

163
00:08:49,059 --> 00:08:50,959
Wat betekent het voor de vaardigheden van je mensen?

164
00:08:50,959 --> 00:08:56,379
Maar ook bijvoorbeeld wanneer je besluit je als leidinggevende om externe hulp in te schakelen.

165
00:08:56,379 --> 00:08:58,799
Dus de focus zit wel echt op AI.

166
00:08:58,799 --> 00:09:01,859
Maar in principe het stukje, goh, hoe maak je er beleid voor?

167
00:09:01,859 --> 00:09:03,759
Hoe verwerk je het in je visie?

168
00:09:03,759 --> 00:09:05,179
Wat betekent het voor de cultuur?

169
00:09:05,179 --> 00:09:07,819
Dat hebben we best al een aantal keer meegemaakt.

170
00:09:07,819 --> 00:09:10,379
Dat we dat weer even op moesten schudden.

171
00:09:10,379 --> 00:09:17,579
Ja, het blijft mij persoonlijk fascineren inderdaad dat als er dan weer zo'n nieuwe golf komt, dat we weer zo'n beweging doorgaan met elkaar.

172
00:09:17,579 --> 00:09:20,059
En eigenlijk hetzelfde patroon toch weer kunnen toepassen.

173
00:09:20,059 --> 00:09:20,719
Precies.

174
00:09:20,719 --> 00:09:21,779
Zodat de techniek anders is.

175
00:09:21,779 --> 00:09:25,819
We hebben heel erg de behoefte om het wiel iedere keer opnieuw uit te vinden.

176
00:09:25,819 --> 00:09:30,659
Ja, en wat is dan de eerste stap die mensen kunnen nemen?

177
00:09:30,899 --> 00:09:35,259
Nou, de eerste stap is echt je huidige situatie goed in kaart brengen.

178
00:09:35,259 --> 00:09:39,939
Ik merk heel veel als ik bij organisaties over de vloer kom, dat ze eigenlijk niet zo goed weten,

179
00:09:39,939 --> 00:09:42,179
ja, wat voor AI-tools gebruiken jullie eigenlijk?

180
00:09:42,179 --> 00:09:43,779
Hoe zit het met de kennis in je team?

181
00:09:43,779 --> 00:09:45,959
Wat wil je daar eigenlijk mee bereiken?

182
00:09:45,959 --> 00:09:48,639
Dat dat heel gefragmenteerd is.

183
00:09:48,639 --> 00:09:50,299
Dus dat ze daar eigenlijk niet goed zicht op hebben.

184
00:09:50,299 --> 00:09:51,259
Dus dat is stap één.

185
00:09:51,259 --> 00:09:52,779
Ga dat eens analyseren.

186
00:09:52,779 --> 00:09:54,679
En dat klinkt gelijk al groot en zwaar.

187
00:09:54,679 --> 00:09:58,119
Zet gewoon eens op papier wat voor AI-tools je gebruikt, wie het gebruikt en waarvoor.

188
00:09:58,499 --> 00:10:00,999
Kan in een simpel Excel-etje, kan je dus starten als ik het zo hoor.

189
00:10:00,999 --> 00:10:03,599
Nou ja, zelfs met AI zou je het kunnen doen.

190
00:10:03,599 --> 00:10:05,839
Dat is natuurlijk een heel flauw antwoord.

191
00:10:05,839 --> 00:10:07,299
Ook AI kan je helpen erbij.

192
00:10:07,299 --> 00:10:12,319
Maar ja, gewoon inderdaad op één A4'tje even onder elkaar zetten.

193
00:10:12,319 --> 00:10:14,559
Dat je denkt, oké, nou, hier staan we nu.

194
00:10:14,559 --> 00:10:18,399
Want dat heb je nodig om ook goed in kaart te brengen naar waar willen we naartoe.

195
00:10:18,399 --> 00:10:20,259
En welke stappen zitten daar dan tussen?

196
00:10:20,259 --> 00:10:24,839
En gaat het boek dan ook over het gebruik van AI-tools?

197
00:10:24,839 --> 00:10:26,259
Niet echt.

198
00:10:27,219 --> 00:10:29,359
Dus er staan wel wat tips tussendoor in.

199
00:10:29,359 --> 00:10:33,099
Maar het zit vooral op hoe gebruik je het in je werkprocessen.

200
00:10:33,099 --> 00:10:35,559
Dus wat minder op, dit is een goede prompt.

201
00:10:35,559 --> 00:10:37,399
Wat zijn de toepassingen?

202
00:10:37,399 --> 00:10:41,779
In ieder hoofdstuk pak ik eigenlijk een ander team als voorbeeld.

203
00:10:41,779 --> 00:10:45,419
Dus op die manier zie je wel verschillende toepassingen van AI.

204
00:10:45,419 --> 00:10:48,599
Maar het zit dus wat minder op inderdaad, wat is een goede prompt.

205
00:10:48,599 --> 00:10:49,519
En je zegt ander team.

206
00:10:49,519 --> 00:10:51,699
Is dat een ander voorbeeld?

207
00:10:51,699 --> 00:10:52,859
Of hoe moet ik dat zien?

208
00:10:52,939 --> 00:10:56,239
Dus ik heb juist om het interessant te maken voor een grote doelgroep.

209
00:10:56,239 --> 00:10:59,899
Pak ik eigenlijk in ieder hoofdstuk een ander voorbeeld team.

210
00:10:59,899 --> 00:11:05,559
En neem ik eigenlijk aan de hand van de situatie van dat team, neem ik je mee door dat hoofdstuk.

211
00:11:05,939 --> 00:11:09,199
Oh mooi, dus dan leef je je in in de fase waarin ze zitten.

212
00:11:09,199 --> 00:11:11,779
En dat verschil per team wat er dan inderdaad...

213
00:11:11,779 --> 00:11:12,099
Klopt.

214
00:11:12,099 --> 00:11:14,379
En ook in wat voor sector je zit.

215
00:11:14,379 --> 00:11:16,919
Denk inderdaad aan met wat voor data werk je.

216
00:11:16,919 --> 00:11:21,259
Een marketingteam kan vaak wat meer dan als je bijvoorbeeld in een finance team werkt.

217
00:11:22,299 --> 00:11:27,379
Dus aan de hand van die voorbeelden heb ik geprobeerd allerlei situaties en toepassingen te schetsen.

218
00:11:27,379 --> 00:11:29,759
Zodat je altijd iets hebt waar je in herkent.

219
00:11:29,759 --> 00:11:31,279
En dat je denkt, oh ja, dit geldt ook voor mij.

220
00:11:31,279 --> 00:11:33,979
En je gaf aan, je geeft veel training.

221
00:11:33,979 --> 00:11:34,539
Ja.

222
00:11:34,539 --> 00:11:40,039
Wat zijn nou veelgestelde vragen in zo'n training over dit onderwerp?

223
00:11:40,039 --> 00:11:41,839
Ja, heel veel blijft toch?

224
00:11:41,839 --> 00:11:44,259
En ik denk, oh mensen, kom op, we moeten echt een stap verder maken.

225
00:11:44,259 --> 00:11:47,259
Wat voor tools moet ik dan gebruiken?

226
00:11:47,259 --> 00:11:47,659
Ja.

227
00:11:48,959 --> 00:11:51,879
De vragen over wat is nou een goede prompt blijven ook.

228
00:11:51,879 --> 00:12:01,119
Maar over dit onderwerp specifiek, heel erg over, oké, maar hoe gaan we nou inderdaad van dat experimenteren naar echt integreren?

229
00:12:01,119 --> 00:12:02,959
Hoe ga je naar je processen kijken?

230
00:12:02,959 --> 00:12:04,859
Waar zet ik AI eigenlijk voor in?

231
00:12:04,859 --> 00:12:08,939
Maar ook inderdaad, hoe zorg ik dat mijn team voldoende kennis heeft?

232
00:12:08,939 --> 00:12:12,759
En leuk, nu hebben we één workshop van jou gevolgd, maar hoe moeten we het nu verder?

233
00:12:12,759 --> 00:12:16,239
Hoe gaan we het echt onderdeel maken van ons werk?

234
00:12:16,359 --> 00:12:19,399
En wat is dan zeker op die laatste vraag je antwoord?

235
00:12:19,399 --> 00:12:24,659
Ja, en dat is altijd een beetje hypocriet dat ik dit zeg, want ik ben zelf echt de grootste chaoot.

236
00:12:24,659 --> 00:12:27,559
Dus ik had, kijk eerst eens goed naar je processen.

237
00:12:27,559 --> 00:12:29,279
Breng die in kaart.

238
00:12:29,279 --> 00:12:31,039
Maak, geef structuur.

239
00:12:31,039 --> 00:12:31,839
Precies.

240
00:12:31,839 --> 00:12:33,779
En dan kan ik altijd, oké, hoor wie het zegt.

241
00:12:33,779 --> 00:12:34,039
Ja.

242
00:12:35,039 --> 00:12:40,659
Maar ook mij heeft het enorm geholpen om eerst eens na te denken over wat doe je eigenlijk?

243
00:12:40,659 --> 00:12:44,359
En dat klinkt, dat je denkt, ja dat weet ik toch wel, maar heel vaak niet.

244
00:12:44,359 --> 00:12:47,379
Bijvoorbeeld als je kijkt naar inderdaad marketing teams.

245
00:12:47,379 --> 00:12:49,039
Ja, oké, content maken.

246
00:12:49,039 --> 00:12:50,319
Wat komt er allemaal bij kijken?

247
00:12:50,319 --> 00:12:52,479
Ja, je moet een onderwerp zoeken.

248
00:12:52,479 --> 00:12:54,399
Je moet misschien een collega vinden.

249
00:12:54,399 --> 00:12:55,639
Je moet een afspraak plannen.

250
00:12:55,639 --> 00:12:57,499
Er zit feedback op dat artikel.

251
00:12:57,939 --> 00:13:02,639
Er zitten heel veel stappen tussen die zo vanzelfsprekend zijn, dat je het je niet meer realiseert.

252
00:13:02,639 --> 00:13:09,859
En door dat eens in kaart te brengen, kan je heel gestructureerd gaan kijken met, oké, wat zijn nou bijvoorbeeld heel repetitief werk?

253
00:13:09,859 --> 00:13:11,259
Wat kost veel tijd?

254
00:13:11,259 --> 00:13:14,279
Of wat kunnen we nu niet doen omdat we de mensen er niet voor hebben?

255
00:13:14,279 --> 00:13:16,699
En met dat soort taken kan je gaan beginnen.

256
00:13:16,699 --> 00:13:18,559
Oké, wat voor AI tools zijn daarvoor?

257
00:13:18,559 --> 00:13:19,679
Wat werkt er?

258
00:13:19,679 --> 00:13:23,259
Kan je daar een stukje beleid op maken van, oké, hoe gaan we het dan gebruiken?

259
00:13:23,259 --> 00:13:25,159
En zo kan je het uitbouwen.

260
00:13:25,659 --> 00:13:28,599
Dus begin vooral met één taak en bouw het dan uit.

261
00:13:28,599 --> 00:13:31,119
Pak niet je hele werkproces in één keer.

262
00:13:31,119 --> 00:13:39,919
Kan je je nog herinneren, toen je dat aan het doen was, wat een verrassende activiteit of taak was, die naar boven kwam?

263
00:13:39,919 --> 00:13:40,679
Leuk vraag.

264
00:13:40,679 --> 00:13:42,579
Even terugdenken.

265
00:13:42,579 --> 00:13:46,919
Nou, voor mij zat het vooral in het stukje voorwerk eigenlijk.

266
00:13:46,919 --> 00:13:52,879
Ik ging heel snel al naar, bijvoorbeeld als je kijkt naar content, nou oké, dan maak ik de content.

267
00:13:52,879 --> 00:13:54,179
En nou ja, dan moet het online.

268
00:13:54,779 --> 00:13:59,199
Dus ik bleef zelf ook best wel lang een beetje bij de tekstgeneratiehoek hangen.

269
00:13:59,199 --> 00:14:03,419
Toen ik denk, oh ja, kan ik natuurlijk voor dat hele voorwerk, kan ik het ook inzetten?

270
00:14:03,419 --> 00:14:10,599
En als ik nu kijk naar hoe ik er zelf mijn interviews voorbereid, is veel beter, zorgt voor veel betere interviews.

271
00:14:11,759 --> 00:14:16,199
En dat zie ik ook wel vaak bij mensen waar ik op bezoek kom.

272
00:14:16,199 --> 00:14:19,499
We blijven nog een beetje hangen in echt die tekstgeneratiehoek.

273
00:14:20,479 --> 00:14:26,859
En ik denk, doordat je je processen in kaart brengt, krijg je zelf ook weer even een bredere blik op wat je doet.

274
00:14:26,859 --> 00:14:27,239
Ja.

275
00:14:27,239 --> 00:14:31,019
En dan kan je ook gaan kijken naar wat is er eigenlijk nog meer dan?

276
00:14:31,019 --> 00:14:33,339
Hey, JetGPT, maak een leuke tekst voor me.

277
00:14:33,899 --> 00:14:40,579
En waar in dat proces, van begin tot eind, heb je besloten, hier ga ik geen AI voor gebruiken?

278
00:14:40,579 --> 00:14:42,039
Best wel veel dingen ook.

279
00:14:43,679 --> 00:14:49,219
Zeker bijvoorbeeld, wat ik heel belangrijk vind, is dat er gewoon altijd ook nog een mens naar de content kijkt.

280
00:14:49,219 --> 00:14:53,439
Juist voor dat stukje het echt uniek maken.

281
00:14:53,439 --> 00:14:59,259
We hadden het net toevallig in de voorbespreking over AI-woorden, dat die er allemaal uit zijn.

282
00:14:59,259 --> 00:15:05,999
Dus ik had verwacht dat juist voor het stukje feedback, dacht ik, oh, dat kan misschien AI wel helemaal van me overnemen.

283
00:15:05,999 --> 00:15:09,579
Nou, dat doet het grotendeels, maar er blijft altijd een mens bij.

284
00:15:11,099 --> 00:15:16,239
En ook wel soms, weet je, ik schrijf zelf graag een hele kleine tekst.

285
00:15:16,239 --> 00:15:20,979
Ja, het kost me meer werk om een goede prompt te schrijven dan om de tekst gewoon zelf te maken.

286
00:15:20,979 --> 00:15:30,159
Ja, want zit daar niet in gevaar in dat we, zeg maar, zo graag de technologie willen gebruiken,

287
00:15:30,159 --> 00:15:35,779
dat je soms langer bezig bent met de uitvoering dan als je het zelf zou doen?

288
00:15:35,779 --> 00:15:37,579
Zeker, ja.

289
00:15:37,779 --> 00:15:45,079
Wat ik zie ook in heel veel teams, is dat ze willen iets met AI doen, zodat ze een beetje mee kunnen met, oh, wij doen ook iets met AI.

290
00:15:45,999 --> 00:15:48,439
Waardoor er soms, denk ik, wel verkeerd wordt gekeken naar taken.

291
00:15:48,439 --> 00:15:50,459
Dan denk ik, oh, we moeten dit dus met AI kunnen.

292
00:15:50,459 --> 00:15:50,739
Ja.

293
00:15:50,739 --> 00:15:55,219
Terwijl, ja, soms is het ook gewoon beter om het te blijven doen zoals je het altijd al deed.

294
00:15:55,219 --> 00:15:56,699
Lijkt me ook.

295
00:15:56,699 --> 00:15:57,779
Ja, nee, zeker weten.

296
00:15:57,779 --> 00:16:01,879
En daarnaast, sommige dingen zijn ook gewoon leuk en creatief om te blijven doen.

297
00:16:01,879 --> 00:16:05,579
En als je dat gaat genereren, ja, er komt nog steeds veel generieke uit.

298
00:16:05,579 --> 00:16:07,399
En vaak gaat het niet om het generieke.

299
00:16:07,399 --> 00:16:08,819
Het generieke gaat je helpen in de tijd.

300
00:16:08,939 --> 00:16:12,219
Maar het specifieke, daar hebben we dadelijk meer tijd voor, om dat juist toe te gaan voegen.

301
00:16:12,219 --> 00:16:12,879
Zeker.

302
00:16:12,879 --> 00:16:15,839
En het zit ook een belangrijk thema in mijn boek, is bijvoorbeeld ook werkplezier.

303
00:16:15,839 --> 00:16:17,899
En dat vind ik nog wel onderbelicht.

304
00:16:17,899 --> 00:16:21,439
Als je kijkt naar werken met AI, het zit heel vaak op efficiëntie, inderdaad.

305
00:16:21,439 --> 00:16:24,859
Sneller met minder mensen, kostenbesparend.

306
00:16:24,859 --> 00:16:26,139
Het is natuurlijk heel mooi dat dat kan.

307
00:16:26,139 --> 00:16:30,939
Maar ik denk ook dat als je het zo kan inzetten, dat de taken die je zelf misschien niet zo heel leuk vindt,

308
00:16:31,639 --> 00:16:34,579
dat je gaat kijken naar, oké, kan AI me daarbij helpen?

309
00:16:34,579 --> 00:16:38,439
Zodat je juist meer tijd krijgt voor ook taken die je zelf ook gewoon leuk vindt om te doen.

310
00:16:38,439 --> 00:16:44,799
Jij gebruikt, je zegt van, je gebruikt best wel heel veel AI tools, AI in je processen.

311
00:16:44,799 --> 00:16:47,559
Hoeveel vrije tijd heb je gekregen?

312
00:16:47,559 --> 00:16:50,539
Ja, dit is een pijnlijke vraag.

313
00:16:50,539 --> 00:16:54,199
Ik ken Kim, dus daarom vraag ik het ook.

314
00:16:54,199 --> 00:16:56,059
Een stuk minder.

315
00:16:56,059 --> 00:16:59,539
Misschien wel even uitleggen waarom dan inderdaad.

316
00:17:00,859 --> 00:17:04,339
Nou, wat ik grappig vind ook, ik merk het zelf ook met AI.

317
00:17:04,339 --> 00:17:06,459
Ik heb echt ook een beetje AI-FOMO.

318
00:17:06,459 --> 00:17:09,398
Want ik denk, oh mijn god, als ik hier niet heel veel tijd aan besteed,

319
00:17:09,398 --> 00:17:12,019
dan weet ik straks niet meer wat het nieuwste is.

320
00:17:12,019 --> 00:17:14,878
Ik moet zeggen, het zakt wel een beetje af.

321
00:17:14,878 --> 00:17:18,118
Maar het is ook heel verleidelijk om je er een beetje in te verliezen.

322
00:17:18,118 --> 00:17:20,339
Oh, nog een nieuwe AI-tool en wat kan het nog meer?

323
00:17:20,339 --> 00:17:23,638
Ja, het is ook al een beetje een hobby geworden bijna.

324
00:17:23,638 --> 00:17:25,479
Ja, en hobby's kosten tijd.

325
00:17:25,479 --> 00:17:26,839
En het kost heel veel tijd.

326
00:17:26,839 --> 00:17:30,839
En zolang het een leuke hobby is, hoeft dat helemaal geen probleem te zijn natuurlijk.

327
00:17:30,839 --> 00:17:32,619
Want je hebt nu wel de tijd om erin te duiken.

328
00:17:32,619 --> 00:17:34,659
Terwijl hiervoor was je misschien met de teksten bezig.

329
00:17:34,659 --> 00:17:36,899
En dan had je daar veel meer effort in.

330
00:17:36,899 --> 00:17:38,679
Dus nu kan je die dingen ook makkelijker volgen.

331
00:17:38,719 --> 00:17:39,059
Klopt.

332
00:17:39,059 --> 00:17:43,039
Maar het is wel nog steeds, dat is echt een leerpunt voor mezelf,

333
00:17:43,039 --> 00:17:45,999
weet je die balans vinden tussen ook, hoe ver ga je mee?

334
00:17:45,999 --> 00:17:49,159
En dat is ook altijd wel een vraag die ik krijg van,

335
00:17:49,159 --> 00:17:50,339
ja oké, maar waar moet ik dan beginnen?

336
00:17:50,339 --> 00:17:51,319
Weet je, wat moet ik volgen?

337
00:17:51,319 --> 00:17:52,619
Welke tools moet ik gebruiken?

338
00:17:52,619 --> 00:17:55,919
Ja, probeer daar voor jezelf wel een beetje kritisch op te zijn.

339
00:17:55,919 --> 00:17:58,759
Want je kan inderdaad 20 AI-tools gebruiken.

340
00:17:58,759 --> 00:18:01,839
Nou ja, morgen zijn er allemaal weer nieuwe features.

341
00:18:01,839 --> 00:18:03,279
Ben je niet meer up-to-date?

342
00:18:04,159 --> 00:18:07,659
Ja, we maken het onszelf steeds moeilijker en het wordt steeds complexer.

343
00:18:07,659 --> 00:18:08,039
Ja.

344
00:18:08,039 --> 00:18:10,299
Een gouden regel, keep it simple.

345
00:18:10,299 --> 00:18:11,079
Ja, echt.

346
00:18:11,079 --> 00:18:12,359
Maar dat is wel moeilijk.

347
00:18:12,359 --> 00:18:13,359
Dat klopt, dat is heel moeilijk.

348
00:18:13,359 --> 00:18:14,259
En dat wordt alleen maar moeilijker,

349
00:18:14,259 --> 00:18:17,339
omdat er steeds meer tools die net een stukje makkelijker zouden moeten maken.

350
00:18:17,339 --> 00:18:18,999
Maar als je tools aan elkaar gaat rijgen,

351
00:18:18,999 --> 00:18:21,559
en niet naar het proces en de toegevoegde waarde gaat kijken,

352
00:18:21,559 --> 00:18:23,579
heb je de kans dat die keten heel groot wordt.

353
00:18:24,479 --> 00:18:27,999
En dus eigenlijk weer die complexiteit en het juist weer meer tijd gaat kosten.

354
00:18:27,999 --> 00:18:28,099
Zeker.

355
00:18:28,099 --> 00:18:33,539
En ik vind het ook echt een ding wel dat er AI-experts opstaan,

356
00:18:33,539 --> 00:18:37,019
die dan ook een beetje inspelen op dat gevoel van AI-FOMO.

357
00:18:37,019 --> 00:18:40,599
En dat vind ik soms best een lastige.

358
00:18:40,599 --> 00:18:43,599
Want dan denk ik, oké, we worden ook wel met z'n allen een beetje gek gemaakt.

359
00:18:43,599 --> 00:18:46,459
Dus alweer iets nieuws, moet je ook allemaal weten.

360
00:18:46,459 --> 00:18:48,059
Tel je, je hoeft het niet allemaal te weten.

361
00:18:48,059 --> 00:18:51,699
Maar dan kunnen we misschien wel iets liever naar elkaar in zijn.

362
00:18:51,699 --> 00:18:54,939
Van oké, probeer gewoon twee tools lekker te gebruiken.

363
00:18:54,939 --> 00:18:57,719
Kijk of je die goed onder de knie kunt krijgen.

364
00:18:57,719 --> 00:18:59,179
Dat ze echt waarde gaan toevoegen.

365
00:18:59,179 --> 00:19:01,959
Nou, en dan is het leuk als je af en toe eens experimenteert.

366
00:19:01,959 --> 00:19:04,039
Maar verlies jezelf er niet in.

367
00:19:04,039 --> 00:19:04,959
Nee, zeker weten.

368
00:19:04,959 --> 00:19:08,939
Nee, en dat wil ook niet zeggen dat het nieuwste ook het beste past

369
00:19:08,939 --> 00:19:12,699
bij jouw businessproces of bij jouw vraagstuk.

370
00:19:12,699 --> 00:19:14,719
Het is voor ieder persoon denk ik verschillend.

371
00:19:14,719 --> 00:19:16,799
Ik denk dat ook, weet je, als je vragen hebt over

372
00:19:16,799 --> 00:19:18,819
welke tool is dan voor mij het beste?

373
00:19:18,819 --> 00:19:20,559
Ja, daar kan ik eigenlijk geen antwoord op geven.

374
00:19:20,659 --> 00:19:22,759
Want ik ken je werkprocessen niet.

375
00:19:22,759 --> 00:19:25,739
Ik weet ook niet wat je het fijnst vindt.

376
00:19:25,739 --> 00:19:27,399
En er staat in mijn boek ook wel een checklist voor.

377
00:19:27,399 --> 00:19:29,559
Een beetje algemene van hoe selecteer je nou goede tools.

378
00:19:29,559 --> 00:19:33,919
Ik denk wel dat je daar voor jezelf wat handigheidjes in kan ontwikkelen.

379
00:19:33,919 --> 00:19:36,799
Van hé, wat vind ik dan eigenlijk belangrijk aan een tool?

380
00:19:36,799 --> 00:19:38,459
Waar moet je die in ieder geval aan voldoen?

381
00:19:38,459 --> 00:19:39,759
Stel je werkt bij een bank.

382
00:19:39,759 --> 00:19:44,099
Zal je vanuit je legal of je IT-afdeling echt wel bijvoorbeeld ook een paar eisen hebben

383
00:19:44,099 --> 00:19:45,599
waar je tools aan moeten voldoen?

384
00:19:46,019 --> 00:19:50,179
Nou, weet je, dat je dat voor jezelf eens onder elkaar zet en dan op basis van die selectie

385
00:19:50,179 --> 00:19:52,139
gaat kijken, wat zou ik dan kunnen gebruiken?

386
00:19:52,139 --> 00:19:58,079
Maar ja, het is net als, is ChatGPT of Cloud beter?

387
00:19:58,079 --> 00:20:01,519
Ja, voor mij, ik ben nog steeds een ChatGPT fan.

388
00:20:01,519 --> 00:20:06,119
Maar ja, we vragen het aan een andere marketeer en die zegt weer, ik gebruik het nooit.

389
00:20:06,119 --> 00:20:07,259
Je moet echt Cloud gebruiken.

390
00:20:07,519 --> 00:20:09,719
En het is ook leren gebruiken en voor welke toepassing.

391
00:20:09,719 --> 00:20:12,519
En er komt veel meer bekijken dan de beste tool.

392
00:20:12,519 --> 00:20:15,079
Natuurlijk zijn modellen beter in bepaalde vraagstukken dan andere.

393
00:20:15,079 --> 00:20:17,779
Dus zeker goed om dat te valideren.

394
00:20:17,779 --> 00:20:22,159
En probeer binnen de organisatie daar denk ik ook te kaderen met een visie of beleid

395
00:20:22,159 --> 00:20:23,979
welke tools ze wel of niet gebruiken.

396
00:20:23,979 --> 00:20:25,799
Maar ik was wel nieuwsgierig.

397
00:20:25,799 --> 00:20:28,319
Je dat net stap 1 aan de huidige situatie.

398
00:20:28,319 --> 00:20:30,139
Stopte het bij stap 1 vroeg ik me even af.

399
00:20:30,139 --> 00:20:32,379
Nou ja, dat hangt van je huidige situatie natuurlijk af.

400
00:20:32,379 --> 00:20:36,699
Als die problematisch is, dan moet je daar zeker even in blijven hangen nog.

401
00:20:37,499 --> 00:20:40,659
Nee, ik zal jullie kort door het model praten.

402
00:20:40,659 --> 00:20:44,039
Ik moest mezelf ook weer even herinneren wat ik had opgeschreven.

403
00:20:44,039 --> 00:20:47,359
Dus je begint met in kaart brengen van waar sta je nu?

404
00:20:47,359 --> 00:20:50,279
Dan ga je kijken naar je teamvisie.

405
00:20:50,279 --> 00:20:51,979
Heel veel teams hebben die niet.

406
00:20:51,979 --> 00:20:55,019
Die hangen zich op aan de organisatievisie.

407
00:20:55,019 --> 00:20:55,699
Dat is ook prima.

408
00:20:55,699 --> 00:21:00,859
Maar het is belangrijk dat je wel voor jezelf als manager kijkt waar staat mijn team?

409
00:21:00,859 --> 00:21:02,299
Waar willen we uiteindelijk?

410
00:21:02,299 --> 00:21:03,539
Wat is onze stip op de horizon?

411
00:21:03,539 --> 00:21:04,839
Wat willen we doen?

412
00:21:04,839 --> 00:21:06,679
Waar willen we ons bed voor uitkomen?

413
00:21:07,479 --> 00:21:10,239
Want dan kun je kijken hoe kan AI die ondersteunen?

414
00:21:10,239 --> 00:21:12,539
Waar zit de rol van AI daarin?

415
00:21:12,539 --> 00:21:14,259
Dan ga je naar een stukje beleid.

416
00:21:14,259 --> 00:21:17,819
En beleid vind ik altijd heel zwaar en stoffig gelijk klinken.

417
00:21:17,819 --> 00:21:19,479
Zo bedoel ik het zeker niet.

418
00:21:19,479 --> 00:21:21,099
Maar zie het als richtlijnen.

419
00:21:21,099 --> 00:21:26,919
Zie het als de veilige kaders waarbinnen je team mag experimenteren en proberen.

420
00:21:27,639 --> 00:21:29,459
Dat je toch een aantal dingen op papier zet.

421
00:21:29,459 --> 00:21:31,479
Dat weet je als we tools gebruiken.

422
00:21:31,479 --> 00:21:33,399
Hoe kom je aan licenties?

423
00:21:33,399 --> 00:21:34,879
Wie is er verantwoordelijk voor?

424
00:21:34,879 --> 00:21:38,499
Het zorgen dat mensen getraind zijn.

425
00:21:38,499 --> 00:21:40,459
Dat het verantwoord wordt gebruikt.

426
00:21:40,459 --> 00:21:42,899
Dat soort zaken.

427
00:21:42,899 --> 00:21:45,459
En dan ga je eigenlijk door naar je doelstellingen.

428
00:21:46,719 --> 00:21:48,359
Dan ga je heel erg kijken naar oké.

429
00:21:48,359 --> 00:21:49,939
Waar werken we aan?

430
00:21:49,939 --> 00:21:54,639
En je hebt als het goed is voor al je team projecten heb je doelstellingen.

431
00:21:54,639 --> 00:21:56,959
Hoe kan AI daarin ondersteunen?

432
00:21:56,959 --> 00:22:00,899
En dat kan dus soms ook het antwoord zijn dat AI daar niet bij kan ondersteunen.

433
00:22:00,899 --> 00:22:02,979
Maar werkt dus wel altijd vanuit een doel.

434
00:22:03,979 --> 00:22:05,959
En daarna ga je werken aan je cultuur.

435
00:22:05,959 --> 00:22:06,799
En ik zeg daarna.

436
00:22:06,799 --> 00:22:08,099
Het is wel echt een continu model.

437
00:22:08,099 --> 00:22:10,979
Dus het is niet iets van je begint bij stap 1.

438
00:22:10,979 --> 00:22:12,819
En dan heb je op een gegeven moment klaar.

439
00:22:12,819 --> 00:22:15,839
Maar als laatste punt heb ik wel cultuur gezet.

440
00:22:15,839 --> 00:22:18,439
Omdat ik zie dat er nog best wel veel angst is.

441
00:22:18,439 --> 00:22:22,179
Ik denk dat je als manager een hele mooie voortrekkersrol kan nemen.

442
00:22:22,179 --> 00:22:27,079
Om het aan de ene kant oké te laten zijn dat je af en toe op je bek gaat.

443
00:22:27,079 --> 00:22:27,959
Dat je een fout maakt.

444
00:22:27,959 --> 00:22:29,959
Dat je denkt nou deze tool hadden we nooit moeten gebruiken.

445
00:22:29,959 --> 00:22:31,179
Dit werkt niet.

446
00:22:31,879 --> 00:22:37,979
En dat je mensen ook de ruimte geeft om AI op een voor hun passende manier in te zetten.

447
00:22:37,979 --> 00:22:40,179
En dat zit vaak wel in de cultuur.

448
00:22:40,179 --> 00:22:41,379
Daar moet ruimte voor zijn.

449
00:22:41,379 --> 00:22:42,839
Er moet ruimte zijn voor innovatie.

450
00:22:42,839 --> 00:22:45,039
Voor experimenteren.

451
00:22:45,039 --> 00:22:47,239
Voor je werkprocessen is opschudden.

452
00:22:47,239 --> 00:22:51,499
En ik denk dat managers daar nog echt wel werk aan de winkel hebben.

453
00:22:51,499 --> 00:22:55,639
Managers is echt een belangrijke doelgroep.

454
00:22:55,639 --> 00:22:55,919
Ja.

455
00:22:55,919 --> 00:22:59,339
Zijn dat ook de mensen die bij jou op training komen?

456
00:22:59,799 --> 00:23:02,239
Of is er een hele grote diversiteit in die training volgen?

457
00:23:02,239 --> 00:23:04,579
Zit daar nog een rode draad in de vragen die daar dan leven?

458
00:23:04,579 --> 00:23:06,719
Het is een hele grote diversiteit.

459
00:23:06,719 --> 00:23:08,099
Ik kom ook bij echt hele verschillende organisaties.

460
00:23:08,099 --> 00:23:11,199
Van proefdiervrij tot Rijkswaterstaat.

461
00:23:11,199 --> 00:23:13,379
En alles wat er tussenin zit.

462
00:23:13,379 --> 00:23:15,759
Managers gaan vaak wel mee op de training.

463
00:23:15,759 --> 00:23:18,319
En wat ik daar vaak zie gebeuren.

464
00:23:18,319 --> 00:23:19,799
Is dat ze eigenlijk denken.

465
00:23:19,799 --> 00:23:20,299
Oké.

466
00:23:20,299 --> 00:23:21,999
Mijn team is veel verder dan dat ik ben.

467
00:23:21,999 --> 00:23:27,759
Dat ze ineens uit hun team allemaal ideeën komen.

468
00:23:27,759 --> 00:23:28,119
Dat ze denken.

469
00:23:28,119 --> 00:23:28,599
Oh mijn god.

470
00:23:28,599 --> 00:23:29,059
Oké.

471
00:23:29,059 --> 00:23:31,159
Hoe moet ik hier straks mee omgaan?

472
00:23:31,159 --> 00:23:33,439
En de vragen die er dan vaak uit voortkomen.

473
00:23:33,439 --> 00:23:34,119
Is inderdaad met.

474
00:23:34,119 --> 00:23:36,699
Hoe pak ik dit een beetje gestructureerd aan?

475
00:23:36,699 --> 00:23:39,459
Want straks gaat iedereen met zijn eigen AI tools aan de gang.

476
00:23:39,459 --> 00:23:40,939
Dan weet ik niet meer wat er speelt.

477
00:23:40,939 --> 00:23:41,639
Dat vind ik spannend.

478
00:23:41,639 --> 00:23:44,619
Dan kan ik me niet meer verantwoorden over wat er allemaal gebeurt.

479
00:23:44,619 --> 00:23:45,739
Hoe doe ik dat?

480
00:23:45,939 --> 00:23:46,039
Ja.

481
00:23:46,039 --> 00:23:47,019
Mooi.

482
00:23:47,019 --> 00:23:50,779
En daarom dan ook misschien teambeleid.

483
00:23:50,779 --> 00:23:52,879
En kaders die je kan stellen daarin.

484
00:23:52,879 --> 00:23:56,279
Om daar met elkaar gestructureerd voortgang in te brengen.

485
00:23:56,279 --> 00:23:56,619
Ja.

486
00:23:56,619 --> 00:23:57,099
Zeker.

487
00:23:57,099 --> 00:23:59,059
Dat je daar met elkaar afspraken over maakt.

488
00:23:59,059 --> 00:23:59,739
En dat je daar.

489
00:23:59,739 --> 00:24:02,239
Ook betrek je team daar vooral ook bij.

490
00:24:02,239 --> 00:24:03,179
Van wat hebben zij nodig?

491
00:24:03,179 --> 00:24:05,939
En op het moment dat je daar met elkaar afspraken over maakt.

492
00:24:05,939 --> 00:24:07,899
Dan kan je af en toe ook even met elkaar terugkijken.

493
00:24:07,899 --> 00:24:08,399
Van oh ja.

494
00:24:08,399 --> 00:24:09,659
Dit hadden we bedacht.

495
00:24:09,659 --> 00:24:11,139
Past u niet helemaal meer in.

496
00:24:11,139 --> 00:24:12,899
Moeten of de afspraken aanpassen.

497
00:24:12,899 --> 00:24:14,219
Of we doen misschien niet het goede nu.

498
00:24:15,079 --> 00:24:17,019
Heb je een voorbeeld van zo'n richtlijn voor een team?

499
00:24:17,019 --> 00:24:17,839
Ja.

500
00:24:17,839 --> 00:24:21,299
Qua richtlijnen kun je aan heel veel dingen denken.

501
00:24:21,299 --> 00:24:23,199
Maar je zou bijvoorbeeld kunnen zeggen van oké.

502
00:24:23,199 --> 00:24:24,779
Iedere nieuwe AI tool.

503
00:24:24,779 --> 00:24:26,779
Dan starten we eerst in een kleine pilot.

504
00:24:26,779 --> 00:24:28,799
We kiezen één taak.

505
00:24:28,799 --> 00:24:31,039
Nou hier moet de pilot aan voldoen.

506
00:24:31,039 --> 00:24:32,899
Als het succesvol is.

507
00:24:32,899 --> 00:24:35,419
Dan gaan we het op deze manier uitrollen naar de rest van het team.

508
00:24:35,419 --> 00:24:37,039
Als het niet succesvol is.

509
00:24:37,039 --> 00:24:39,939
Dan documenteren we dat.

510
00:24:39,939 --> 00:24:41,839
Belangrijk stuk ja.

511
00:24:41,839 --> 00:24:42,459
Zeker.

512
00:24:43,459 --> 00:24:43,999
Heel eerlijk.

513
00:24:43,999 --> 00:24:46,759
Ik weet zelf ook niet meer welke tools we twee jaar geleden hebben getest.

514
00:24:46,759 --> 00:24:48,639
En wat we daar ook alweer exact van vonden.

515
00:24:48,639 --> 00:24:52,119
Dus het zit ook vaak in het stukje vastleggen.

516
00:24:52,119 --> 00:24:53,679
Dat mensen kunnen terugvinden.

517
00:24:53,679 --> 00:24:54,119
Oh ja.

518
00:24:54,119 --> 00:24:55,619
Ik heb nu een nieuwe AI tool.

519
00:24:55,619 --> 00:24:57,479
Ik weet hoe ik die moet aanvragen.

520
00:24:57,479 --> 00:24:58,559
Waar die aan moet voldoen.

521
00:24:58,559 --> 00:25:02,619
Ik weet hoe ik kan zorgen dat ik voldoende kennis daarvan heb.

522
00:25:02,619 --> 00:25:04,579
En ik weet ook wat ik moet doen.

523
00:25:04,579 --> 00:25:06,339
Als ik denk nou dit werkt volgens mij niet meer goed.

524
00:25:06,339 --> 00:25:07,519
Dat je met elkaar.

525
00:25:07,519 --> 00:25:09,159
En dan kom je eigenlijk weer terug op processen.

526
00:25:09,159 --> 00:25:11,419
Dat je daar afspraken over maakt.

527
00:25:11,519 --> 00:25:13,479
En dat zorgt ook voor die veilige.

528
00:25:13,479 --> 00:25:17,099
Eigenlijk die soort van die box ring zie ik al een beetje voor me.

529
00:25:17,099 --> 00:25:19,159
Waar je dan lekker met elkaar kan sparren.

530
00:25:19,159 --> 00:25:20,399
Dat je weet gewoon.

531
00:25:20,399 --> 00:25:20,779
Oké.

532
00:25:20,779 --> 00:25:21,959
Ik wil iets nieuws proberen.

533
00:25:21,959 --> 00:25:23,339
Ik weet hoe ik daarmee start.

534
00:25:23,339 --> 00:25:24,919
En dat het ook kan.

535
00:25:24,919 --> 00:25:26,639
Want we hebben hierover nagedacht.

536
00:25:26,639 --> 00:25:27,279
Ja.

537
00:25:27,279 --> 00:25:27,979
Doordacht.

538
00:25:27,979 --> 00:25:29,999
Innovatie blijft volgen.

539
00:25:29,999 --> 00:25:30,519
Ja.

540
00:25:30,519 --> 00:25:35,099
Met het schrijven van een boek.

541
00:25:35,319 --> 00:25:36,959
Leer je jezelf eigenlijk ook.

542
00:25:36,959 --> 00:25:37,919
Mega veel.

543
00:25:37,919 --> 00:25:38,179
Toch?

544
00:25:38,179 --> 00:25:40,159
Wat is een eye-opener?

545
00:25:40,159 --> 00:25:41,299
Of iets waarvan je zegt van.

546
00:25:41,299 --> 00:25:41,479
Hé.

547
00:25:41,479 --> 00:25:42,419
Dat heb ik eigenlijk.

548
00:25:42,419 --> 00:25:44,619
Door het te schrijven.

549
00:25:44,619 --> 00:25:45,919
Door dingen uit te zoeken.

550
00:25:45,919 --> 00:25:47,599
Heb ik dat zelf nog geleerd.

551
00:25:47,599 --> 00:25:48,859
Door het schrijven hiervan.

552
00:25:48,859 --> 00:25:49,759
Goeie vraag.

553
00:25:49,759 --> 00:25:51,699
Sowieso denk ik.

554
00:25:51,699 --> 00:25:53,399
Wat er eigenlijk allemaal bij komt kijken.

555
00:25:53,399 --> 00:25:54,639
Toen ik dit boek begon.

556
00:25:54,639 --> 00:25:55,139
Dacht ik.

557
00:25:55,139 --> 00:25:55,419
Oh ja.

558
00:25:55,419 --> 00:25:55,579
Nou.

559
00:25:55,579 --> 00:25:56,259
Inderdaad.

560
00:25:56,259 --> 00:25:57,839
Ik ga me meer focussen op beleid.

561
00:25:57,839 --> 00:25:58,519
En visie.

562
00:25:59,599 --> 00:26:01,279
En vooral het stukje bijvoorbeeld.

563
00:26:01,279 --> 00:26:02,099
Breng ze even in kaart.

564
00:26:02,099 --> 00:26:02,919
Waar je nu staat.

565
00:26:02,919 --> 00:26:03,459
Ja.

566
00:26:03,459 --> 00:26:04,659
Wat komt er allemaal bij kijken.

567
00:26:04,659 --> 00:26:06,919
Ook het stukje over kennis en vaardigheden.

568
00:26:06,919 --> 00:26:08,619
Wat verandert er eigenlijk in een team.

569
00:26:08,619 --> 00:26:10,679
Als je meer met AI gaat werken.

570
00:26:10,679 --> 00:26:11,559
Dat vind ik heel leuk.

571
00:26:11,559 --> 00:26:12,939
Want ik verwacht ook.

572
00:26:12,939 --> 00:26:15,559
Dat er bijvoorbeeld nieuwe rollen in teams gaan ontstaan.

573
00:26:15,559 --> 00:26:17,939
Omdat de techniek dichter naar de business komt.

574
00:26:17,939 --> 00:26:20,759
Dus als je als team echt serieus aan de slag gaat met AI.

575
00:26:20,759 --> 00:26:21,379
Ja.

576
00:26:21,379 --> 00:26:23,839
Waarom geen techneut in je team bijvoorbeeld.

577
00:26:23,839 --> 00:26:24,479
Oh ja.

578
00:26:24,479 --> 00:26:26,539
Maar ook het stukje cultuur.

579
00:26:26,539 --> 00:26:29,499
Ik heb een heleboel modellen gebruikt.

580
00:26:30,079 --> 00:26:31,439
En ook zelf ontwikkeld.

581
00:26:31,439 --> 00:26:32,079
Ik dacht.

582
00:26:32,079 --> 00:26:32,419
Oh ja.

583
00:26:32,419 --> 00:26:32,879
Inderdaad.

584
00:26:32,879 --> 00:26:33,959
Eigenlijk waar we het net over hadden.

585
00:26:33,959 --> 00:26:35,059
Heel veel modellen.

586
00:26:35,059 --> 00:26:37,639
Die we echt al uit het jaar 1900 komen.

587
00:26:37,639 --> 00:26:40,859
Kunnen we eigenlijk weer toepassen op deze situatie.

588
00:26:40,859 --> 00:26:43,039
Maar wij hebben het dan niet over AI modellen nu.

589
00:26:43,039 --> 00:26:43,319
Sorry.

590
00:26:43,319 --> 00:26:43,519
Nee.

591
00:26:43,519 --> 00:26:44,599
Niet AI modellen.

592
00:26:44,599 --> 00:26:47,039
Kan je een voorbeeld noemen van een model?

593
00:26:47,039 --> 00:26:47,719
Cultuur.

594
00:26:47,719 --> 00:26:48,979
Cultuurmodellen.

595
00:26:48,979 --> 00:26:49,419
Oh ja.

596
00:26:49,419 --> 00:26:50,259
Ja precies.

597
00:26:50,259 --> 00:26:50,619
Ja.

598
00:26:50,619 --> 00:26:54,059
Ik heb er zelf bijvoorbeeld een ontwikkeld.

599
00:26:54,059 --> 00:26:56,039
Dat heet het Roots model.

600
00:26:56,039 --> 00:26:57,619
Dat gaat heel erg over.

601
00:26:57,619 --> 00:26:58,099
Oké.

602
00:26:58,479 --> 00:27:01,219
Hoe ga je nou AI verankeren in je teamcultuur?

603
00:27:01,219 --> 00:27:01,559
Ja.

604
00:27:01,559 --> 00:27:04,099
Maar daar heb ik me wel door laten inspireren.

605
00:27:04,099 --> 00:27:05,399
Ik heb veel onderzoek gedaan.

606
00:27:05,399 --> 00:27:05,739
Inderdaad.

607
00:27:05,739 --> 00:27:07,699
Wat is er eerder over cultuur geschreven?

608
00:27:07,699 --> 00:27:10,379
En de cultuurveranderingen.

609
00:27:10,379 --> 00:27:12,939
En dan zie je inderdaad dat AI.

610
00:27:12,939 --> 00:27:13,499
Ja.

611
00:27:13,499 --> 00:27:14,499
AI is nieuw.

612
00:27:14,499 --> 00:27:15,379
In die zin nieuw.

613
00:27:15,379 --> 00:27:16,619
Het bestaat natuurlijk al sinds 1950.

614
00:27:16,619 --> 00:27:17,019
Maar.

615
00:27:17,019 --> 00:27:19,219
Ja.

616
00:27:19,219 --> 00:27:20,219
Daar kunnen we gewoon heel veel.

617
00:27:20,219 --> 00:27:21,999
We moeten eigenlijk gewoon niet zo idioot doen.

618
00:27:21,999 --> 00:27:24,799
Niet zo ingewikkeld over.

619
00:27:24,799 --> 00:27:25,539
Oh AI.

620
00:27:26,019 --> 00:27:27,379
Hoe moeten we dat in hemelsnaam.

621
00:27:27,379 --> 00:27:29,119
Dat weten we allemaal best.

622
00:27:29,119 --> 00:27:35,739
Want het is al jaren zijn daar modellen voor die je kan toepassen voor een open en veilige

623
00:27:35,739 --> 00:27:36,099
cultuur.

624
00:27:36,099 --> 00:27:37,639
En daar gaat het eigenlijk vaak om.

625
00:27:37,639 --> 00:27:40,819
Dus ik denk dat ik vooral een beetje die ui heb ontleed.

626
00:27:40,819 --> 00:27:41,119
Ja.

627
00:27:41,119 --> 00:27:41,339
Van oké.

628
00:27:41,339 --> 00:27:42,759
Wat AI.

629
00:27:42,759 --> 00:27:43,459
Leuk.

630
00:27:43,459 --> 00:27:44,979
We zijn allemaal een beetje in paniek met.

631
00:27:44,979 --> 00:27:47,179
God wat moeten we er nou mee en hoe gaan we daarmee werken.

632
00:27:47,679 --> 00:27:53,019
Maar als je hem afbelt blijft de basis van bijvoorbeeld een gezonde teamcultuur blijft hetzelfde.

633
00:27:53,019 --> 00:27:53,219
Ja.

634
00:27:53,219 --> 00:27:55,799
En openstaan voor adoptie voor vernieuwing.

635
00:27:55,799 --> 00:27:56,079
Ja.

636
00:27:56,079 --> 00:27:59,779
En bijvoorbeeld ook psychologische veiligheid heb ik me er veel in verdiept.

637
00:27:59,779 --> 00:28:00,219
Ja.

638
00:28:00,219 --> 00:28:02,799
En hoe belangrijk dat is om met technologie te gaan werken.

639
00:28:02,799 --> 00:28:04,699
En dan denk ik.

640
00:28:04,699 --> 00:28:05,859
Ja jeetje.

641
00:28:05,859 --> 00:28:07,439
Wat laten we ons eigenlijk gek maken.

642
00:28:07,439 --> 00:28:11,799
Maar ik denk ook wel dat AI echt dingen blootlegt.

643
00:28:11,959 --> 00:28:14,959
Die altijd al eigenlijk dus in je team misschien niet helemaal goed zaten.

644
00:28:14,959 --> 00:28:15,359
Ja.

645
00:28:15,359 --> 00:28:18,579
En dat zie je ook veel in mijn vak.

646
00:28:18,579 --> 00:28:19,159
Weet je.

647
00:28:19,159 --> 00:28:20,979
AI maakt je niet ineens een goede marketeer.

648
00:28:20,979 --> 00:28:23,599
En AI maakt je ook niet ineens een goede manager.

649
00:28:23,599 --> 00:28:24,519
Nee.

650
00:28:24,519 --> 00:28:26,799
Dus ik denk dat het heel erg blootlegt.

651
00:28:26,799 --> 00:28:29,079
Vooral in cultuur.

652
00:28:29,079 --> 00:28:33,239
Zaken waar je toch wel eigenlijk wat meer liefde aan moet streven.

653
00:28:33,239 --> 00:28:36,499
Alleen door AI wordt het wat zichtbaarder.

654
00:28:36,499 --> 00:28:36,899
Ja.

655
00:28:36,899 --> 00:28:38,239
Er wordt er over nagedacht.

656
00:28:38,239 --> 00:28:38,579
Ja.

657
00:28:38,899 --> 00:28:42,079
De noodzaak om er nu echt iets mee te doen wordt iets groter.

658
00:28:42,079 --> 00:28:44,659
En dat vond ik wel een eye-opener.

659
00:28:44,659 --> 00:28:45,039
Dat ik dacht.

660
00:28:45,039 --> 00:28:45,459
Oh ja.

661
00:28:45,459 --> 00:28:48,659
Ook ik laat me af en toe wel eens een beetje meevoeren door alle gekten.

662
00:28:48,659 --> 00:28:50,939
En ik zat heel erg met het onderzoek op.

663
00:28:50,939 --> 00:28:52,839
Oh wat is er geschreven over AI.

664
00:28:52,839 --> 00:28:54,079
Toen dacht ik.

665
00:28:54,079 --> 00:28:54,319
Ja.

666
00:28:54,319 --> 00:28:54,679
Oké.

667
00:28:54,679 --> 00:28:56,019
AI is inderdaad leuk.

668
00:28:56,019 --> 00:28:58,699
Maar het is eigenlijk weer een beetje terug naar de basis.

669
00:28:58,699 --> 00:29:02,819
Wat is een gezond en goed team.

670
00:29:02,819 --> 00:29:05,099
En wat heb je daarvoor nodig om dat draaiende te houden.

671
00:29:05,099 --> 00:29:06,159
Mooi.

672
00:29:08,879 --> 00:29:09,359
Ja.

673
00:29:09,359 --> 00:29:10,079
Ja.

674
00:29:10,079 --> 00:29:10,519
Ja zeker.

675
00:29:10,519 --> 00:29:11,579
Nou ja.

676
00:29:11,579 --> 00:29:14,699
Ik hoef jou zeg maar het kaartspel niet uit te leggen.

677
00:29:14,699 --> 00:29:19,639
Want gezond is natuurlijk ook dat je discussieert over stellingen.

678
00:29:19,639 --> 00:29:21,639
Waarbij het niet gaat om goed of fout.

679
00:29:21,639 --> 00:29:25,999
Maar vooral dat je van elkaar begrijpt eigenlijk hoe je over dingen nadenkt.

680
00:29:25,999 --> 00:29:29,999
Dus wij willen jou ook uiteraard een stelling voorleggen uit onze.

681
00:29:29,999 --> 00:29:32,359
Ik ken ze gelukkig niet allemaal uit mijn hoofd.

682
00:29:32,359 --> 00:29:32,759
Gelukkig.

683
00:29:32,759 --> 00:29:33,399
Ja.

684
00:29:33,399 --> 00:29:34,199
Precies.

685
00:29:34,199 --> 00:29:35,559
Uit de AI Game Changer.

686
00:29:35,559 --> 00:29:37,039
Komt ie aan.

687
00:29:38,859 --> 00:29:40,799
AI Game Changer speelt mee.

688
00:29:40,799 --> 00:29:43,479
Leer voor elkaar en komt er vee.

689
00:29:43,479 --> 00:29:46,099
Je denkt er zal dit spel bepalen.

690
00:29:46,099 --> 00:29:48,759
Zijn we AI verhalen.

691
00:29:48,759 --> 00:29:54,059
Ja het mooie is.

692
00:29:54,059 --> 00:29:55,559
Hij is tijdloos bijna.

693
00:29:55,559 --> 00:29:57,659
Ondanks dat generatieve AI heel snel gaat.

694
00:29:57,659 --> 00:30:00,039
En het is er niet voor niks dat we over dit soort onderwerpen hebben.

695
00:30:00,039 --> 00:30:01,619
Dus hij past er wel heel erg goed bij.

696
00:30:01,619 --> 00:30:02,339
Maar tot wel nieuwsgierig.

697
00:30:02,339 --> 00:30:04,659
Ik word een beetje zenuwachtig van jouw lachje hierbij.

698
00:30:04,659 --> 00:30:07,639
Een gemeen lachje.

699
00:30:07,639 --> 00:30:11,619
Toekomst, visies en speculaties.

700
00:30:11,619 --> 00:30:13,179
Dat is het thema.

701
00:30:13,179 --> 00:30:13,999
En de stelling luidt.

702
00:30:13,999 --> 00:30:20,179
Generatieve AI zal menselijke creativiteit naar ongekende hoogtes tillen door samenwerking tussen mensen en machine.

703
00:30:21,139 --> 00:30:21,879
Dat is grappig.

704
00:30:21,879 --> 00:30:25,039
Weet je dat ik hier een heel los hoofdstuk aan heb gewijd in mijn boek.

705
00:30:25,039 --> 00:30:27,459
Hoe hou je de balans tussen mensen en technologie?

706
00:30:27,459 --> 00:30:28,899
Eindig.

707
00:30:29,619 --> 00:30:34,779
Ik denk dat het op het moment dat je het op de juiste manier inzet.

708
00:30:34,779 --> 00:30:39,579
Dat het zeker creativiteit naar ongekende hoogtes kan brengen.

709
00:30:39,579 --> 00:30:44,959
Maar dus wel als je je heel erg bewust blijft van je eigen rol daarin.

710
00:30:44,959 --> 00:30:48,599
Zie je het echt inderdaad als samenwerkingspartners.

711
00:30:48,599 --> 00:30:50,279
Ik geloof daar zeker in.

712
00:30:50,279 --> 00:30:53,699
Maar ik geloof ook dat een heleboel mensen daar nog niet zijn.

713
00:30:53,699 --> 00:30:56,899
Dat die nog heel erg zitten op hoe werkt generatieve AI eigenlijk.

714
00:30:56,899 --> 00:30:57,699
Wat kan ik ermee?

715
00:30:58,299 --> 00:31:00,399
En nog heel erg in die onderzoeksfase zitten.

716
00:31:00,399 --> 00:31:05,639
Maar ik denk dat als je echt een manier vindt om het echt als samenwerkingspartner bijna te zien.

717
00:31:05,639 --> 00:31:09,859
Dat je dan echt wel hele toffe nieuwe dingen kan bedenken.

718
00:31:09,859 --> 00:31:11,579
En nog een stuk creatiever kan worden.

719
00:31:11,579 --> 00:31:13,539
En mooi u dit zegt.

720
00:31:13,539 --> 00:31:15,899
Hoe ben je zelf door die fase heen gaan?

721
00:31:15,899 --> 00:31:19,739
Van het onderzoeken naar het omarmen en inzetten.

722
00:31:19,739 --> 00:31:23,559
Ja, dat is denk ik toch een vrij onbewust proces wel geweest.

723
00:31:23,559 --> 00:31:26,279
Ik denk vooral een lange adem hebben.

724
00:31:26,999 --> 00:31:28,919
Wat ik vaak ook zie is dat mensen dan denken.

725
00:31:28,919 --> 00:31:29,739
Oh ja, ik moet in één keer.

726
00:31:29,739 --> 00:31:31,519
De output is niet goed.

727
00:31:31,519 --> 00:31:32,519
Oh ja, laat dan maar zitten.

728
00:31:32,519 --> 00:31:34,839
Dus echt tijd erin investeren.

729
00:31:34,839 --> 00:31:37,099
Om te ontdekken van oké, wat kan ik ermee?

730
00:31:37,099 --> 00:31:38,499
En hoe kan het voor mij werken?

731
00:31:38,499 --> 00:31:41,079
Ik heb nog steeds, ik kom niet altijd naartoe.

732
00:31:41,079 --> 00:31:42,799
Maar één keer in de week een uurtje geblokkeerd.

733
00:31:42,799 --> 00:31:45,079
Om gewoon eens even, eens experimenteer tijd.

734
00:31:45,079 --> 00:31:47,079
Om te kijken met oké.

735
00:31:47,079 --> 00:31:48,939
Zijn er nog nieuwe dingen die je kan bedenken?

736
00:31:49,019 --> 00:31:50,139
Die ik eens wil proberen.

737
00:31:50,139 --> 00:31:51,419
Dus vooral tijd.

738
00:31:51,419 --> 00:31:52,999
Echt tijd in investeren.

739
00:31:52,999 --> 00:31:55,499
En ook heel belangrijk over blijven praten.

740
00:31:55,499 --> 00:31:57,519
Met je collega's.

741
00:31:57,519 --> 00:31:58,059
Zoals jullie.

742
00:31:58,059 --> 00:32:01,479
Maar om daar ook met elkaar over te sparren.

743
00:32:01,479 --> 00:32:03,419
Van oké, hoe zet jij het nou in?

744
00:32:03,419 --> 00:32:04,599
Wat brengt het jou?

745
00:32:04,599 --> 00:32:08,519
Zodat je zelf echt ook een wijde blik erop houdt.

746
00:32:08,519 --> 00:32:10,499
Van oh ja, dit is mijn rol.

747
00:32:10,499 --> 00:32:12,019
Dit zou mijn rol nog kunnen zijn.

748
00:32:12,219 --> 00:32:13,299
Zo kan ik het inzetten.

749
00:32:13,299 --> 00:32:14,219
Mooi.

750
00:32:14,219 --> 00:32:18,239
Wat wordt de invulling van je volgende experimenteer uurtje?

751
00:32:18,239 --> 00:32:20,239
Ja, nou ik moet heel erg zeggen.

752
00:32:20,239 --> 00:32:21,659
Ik geef nu steeds meer trainingen.

753
00:32:21,659 --> 00:32:25,119
Dus ook over visuele content creatie met AI.

754
00:32:25,119 --> 00:32:27,499
Nou, ik ben zelf echt niet goed met design.

755
00:32:27,499 --> 00:32:31,059
Dus daar wil ik wel wat beter in worden.

756
00:32:31,059 --> 00:32:33,399
Dus daar ben ik een beetje mee aan het klooien.

757
00:32:33,399 --> 00:32:34,959
Van wat kan er nou met tools?

758
00:32:34,959 --> 00:32:38,219
Dat eigenlijk vooral.

759
00:32:38,219 --> 00:32:41,059
En ik denk ook wel het stukje inderdaad.

760
00:32:41,439 --> 00:32:43,659
Nog eens even goed kijken naar...

761
00:32:43,659 --> 00:32:46,039
Ik vind het zelf heel leuk om modellen met AI te ontwikkelen.

762
00:32:46,039 --> 00:32:50,559
En eigenlijk een beetje structuur in mijn chaos te krijgen.

763
00:32:50,559 --> 00:32:53,459
Dus ik kijk ook altijd wel naar mijn eigen werkprocessen.

764
00:32:53,459 --> 00:32:56,619
Van zijn er nou nog dingen die ik echt niet handig doe?

765
00:32:56,619 --> 00:32:58,259
Waar AI bij zou kunnen helpen?

766
00:32:58,259 --> 00:32:59,819
En ik heb...

767
00:32:59,819 --> 00:33:02,419
Jullie kennen misschien de site There's an AI for that.

768
00:33:02,419 --> 00:33:04,559
Ik ben altijd ook wel benieuwd van...

769
00:33:04,559 --> 00:33:06,559
Oké, wat voor nieuwe tools zijn er nou op de markt?

770
00:33:06,559 --> 00:33:08,439
Zijn er nog toepassingen die ik niet ken?

771
00:33:08,439 --> 00:33:10,799
Dus vaak begin ik daarmee een beetje scrollen, een beetje kijken.

772
00:33:11,139 --> 00:33:12,119
Tool kiezen.

773
00:33:12,119 --> 00:33:14,019
Daar eens wat mee proberen.

774
00:33:14,019 --> 00:33:16,419
Of bijvoorbeeld even met een collega bellen.

775
00:33:16,419 --> 00:33:17,799
Van hé, ik heb hier een idee bij.

776
00:33:17,799 --> 00:33:18,619
Hoe zie jij dat?

777
00:33:18,619 --> 00:33:21,459
Dus ik vul het eigenlijk altijd heel divers in.

778
00:33:21,459 --> 00:33:21,739
Oh ja.

779
00:33:21,739 --> 00:33:22,879
Interessant.

780
00:33:22,879 --> 00:33:24,519
Dus nieuwsgierig blijven.

781
00:33:24,519 --> 00:33:24,979
Ja.

782
00:33:24,979 --> 00:33:29,399
De juiste collega's om je heen zoeken om de energie mee te channelen.

783
00:33:29,399 --> 00:33:29,839
Zeker.

784
00:33:30,379 --> 00:33:30,719
Mooi.

785
00:33:30,719 --> 00:33:33,739
En jij hebt het heel veel over tools.

786
00:33:33,739 --> 00:33:34,119
Ja.

787
00:33:34,119 --> 00:33:39,979
We hebben natuurlijk ook een heel landschap aan AI maatwerk.

788
00:33:39,979 --> 00:33:40,459
Ja.

789
00:33:40,459 --> 00:33:42,899
Komt dat aan bod in je boek?

790
00:33:43,199 --> 00:33:43,559
Zeker.

791
00:33:43,559 --> 00:33:43,839
Ja.

792
00:33:43,839 --> 00:33:49,259
Ik kon natuurlijk niet over mijn hart verkrijgen dat ik bij een maatwerk leverancier werk en dat ik dan niks over schrijf.

793
00:33:49,259 --> 00:33:49,619
Ja.

794
00:33:50,479 --> 00:33:50,839
Zeker.

795
00:33:50,839 --> 00:33:58,299
Want wat ik denk ik in de praktijk zie is dat het voelt veilig om met publiek beschikbare tools te werken.

796
00:33:58,299 --> 00:34:00,219
Daar kan je leuk mee proberen wat er mee kan.

797
00:34:00,219 --> 00:34:09,079
Maar voor heel veel sectoren, voor heel veel bedrijven, die komen op een punt dat maatwerk een betere en veiligere oplossing is.

798
00:34:09,599 --> 00:34:11,179
Alleen wanneer kom je nou op dat punt?

799
00:34:11,179 --> 00:34:11,458
Ja.

800
00:34:11,458 --> 00:34:13,799
Daar gaat in mijn boek ook een hoofdstuk over.

801
00:34:13,799 --> 00:34:15,859
Van oké, wanneer ga je hulp inschakelen?

802
00:34:15,859 --> 00:34:21,119
En ik denk dat zeker, en dat zeg ik echt niet omdat ik toevallig de marketing doe voor in de Sport & Aigency,

803
00:34:21,119 --> 00:34:27,139
dat je jezelf heel veel ongemak kan besparen als je tijdig de juiste partner inschakelt.

804
00:34:27,139 --> 00:34:30,379
In ieder geval om eens met je mee te denken van doe ik eigenlijk nog het goede?

805
00:34:30,379 --> 00:34:33,819
Of kan het beter, sneller, veiliger?

806
00:34:33,819 --> 00:34:38,219
En ik denk dat bedrijven daar ook wat minder bang voor moeten zijn.

807
00:34:38,219 --> 00:34:41,978
Bel ons gewoon een keer, laat ons een keer met je meedenken.

808
00:34:41,978 --> 00:34:45,359
En dan is er meer mogelijk dan je denkt.

809
00:34:45,359 --> 00:34:47,659
En dat werkt uiteindelijk efficiënter.

810
00:34:47,659 --> 00:34:53,339
Als jij een model hebt dat echt op jouw organisatie is toegespitst,

811
00:34:53,339 --> 00:34:55,559
dan kan je je helemaal suf prompten.

812
00:34:55,559 --> 00:35:00,359
Maar dat model gaat beter werken dan als jij perfecte prompt schrijft in openbare tools.

813
00:35:00,359 --> 00:35:00,959
Zeker.

814
00:35:00,959 --> 00:35:05,879
En daarom in je boek zag ik ook inderdaad een selectiecriteria van scorematrix voor AI-tools,

815
00:35:05,879 --> 00:35:08,919
die je dus ook kunnen helpen van wanneer zou ik inderdaad welke tool gebruiken,

816
00:35:08,919 --> 00:35:10,739
maar ook wanneer moet ik misschien wel maatwerk gaan doen.

817
00:35:10,739 --> 00:35:13,039
Dus wees daar niet terughoudend in.

818
00:35:13,039 --> 00:35:15,879
En ik denk dat mensen bij maatwerk snel denken,

819
00:35:15,879 --> 00:35:18,639
oh het zijn echt gigantische trajecten, het is niet voor mij.

820
00:35:18,639 --> 00:35:20,599
Nou ja, begin eens met een kop koffie.

821
00:35:20,599 --> 00:35:23,499
Dat kan altijd natuurlijk.

822
00:35:23,499 --> 00:35:23,719
Precies.

823
00:35:23,819 --> 00:35:24,139
Zeker.

824
00:35:24,139 --> 00:35:28,479
Toch nog eventjes over je eigen proces.

825
00:35:28,479 --> 00:35:35,659
Hoe zou, zeg maar, stel nou, vandaag valt ChatGPT voor jou uit.

826
00:35:35,659 --> 00:35:39,319
Een aantal weken geleden is dat daadwerkelijk gebeurd.

827
00:35:39,319 --> 00:35:41,619
Wat gebeurt er dan voor jou in je werk?

828
00:35:41,619 --> 00:35:43,979
Nou, complete paniek.

829
00:35:45,659 --> 00:35:49,279
Nou, inderdaad, want ik weet dat het een paar weken geleden is gebeurd en dat ik inderdaad dacht,

830
00:35:49,279 --> 00:35:53,139
oké, en nu moet ik zeggen, ik zit redelijk veilig, want ik gebruik ongeveer drie vergelijkbare tools.

831
00:35:53,139 --> 00:35:55,419
Dus dan hop ik over naar Colt of Gemini.

832
00:35:55,419 --> 00:35:56,639
Ja, maar die liggen er allemaal uit.

833
00:35:56,639 --> 00:35:57,519
Die liggen er allemaal uit.

834
00:35:58,259 --> 00:36:03,519
Nou, ik denk dat ik dan echt best even zit met, oké, hoe ga ik dit allemaal doen?

835
00:36:03,519 --> 00:36:06,659
Want ik werk gewoon veel efficiënter en sneller met AI.

836
00:36:06,659 --> 00:36:10,419
Dus ik denk dat ik mijn werk niet afkrijg die dag dat het allemaal uitvalt.

837
00:36:10,419 --> 00:36:10,859
Ja.

838
00:36:10,859 --> 00:36:19,539
En ik denk ook dat ik echt wel weer even, ja, bijna een andere manier van denken weer even aan moet zetten.

839
00:36:19,539 --> 00:36:25,419
Omdat AI een heleboel checks even snel tussendoor doet op bijvoorbeeld spellingen en grammatica.

840
00:36:25,419 --> 00:36:27,839
En ja, dat check ik zelf ook altijd nog wel.

841
00:36:27,939 --> 00:36:30,839
Maar als je daar weer echt zelf een tekst helemaal doorheen moet,

842
00:36:30,839 --> 00:36:33,379
moet je echt weer even een ander knopje in je hoofd aanzetten.

843
00:36:33,379 --> 00:36:36,519
Van, oh ja, ik moet nu weer even terug naar deze manier van werken.

844
00:36:36,519 --> 00:36:38,219
Dus ik zou dat echt moeilijk vinden.

845
00:36:38,219 --> 00:36:39,959
Ik denk vele met je.

846
00:36:39,959 --> 00:36:42,699
Dat zeg ik zelf.

847
00:36:42,699 --> 00:36:45,479
Wat ik dan misschien was, want we zeggen ook juist,

848
00:36:45,479 --> 00:36:48,159
en dat beschrijven we ook in het boek, is goed kijken naar je proces.

849
00:36:48,159 --> 00:36:53,199
Dus als je dat goed borgt, dan kan je niet gewoon weer terugvallen op dat proces wat je voor AI hebt gebruikt.

850
00:36:53,199 --> 00:36:54,199
Van waar zet ik AI voor in?

851
00:36:54,199 --> 00:36:56,939
Omdat we even als leidraad van, oh ja, wacht, dit moet ik weer zelf doen.

852
00:36:57,619 --> 00:36:58,639
Om dat in te gaan zetten.

853
00:36:58,639 --> 00:37:03,759
Maar ik denk dat we wel, en dat is ook wel een zorg, van inderdaad hoe afhankelijk worden we van AI.

854
00:37:04,959 --> 00:37:10,139
Ik denk dat, laat zeggen over een jaar, en ik geef ook veel trainingen op bijvoorbeeld hogescholen aan docenten.

855
00:37:10,139 --> 00:37:18,179
Daar hebben we vaak ook de discussie over, ja, wat voor skills heb je nu als jongere zeg maar nodig om hier goed mee om te gaan?

856
00:37:18,179 --> 00:37:20,839
Want die zijn niet anders gewend dan met AI te werken.

857
00:37:21,519 --> 00:37:23,039
Wat kwam eruit naar voren?

858
00:37:23,039 --> 00:37:23,899
Ik ben wel nieuwsgierig.

859
00:37:23,899 --> 00:37:31,379
Ja, dat je toch je basis skills van bijvoorbeeld kritisch denken, weet je, zelf ook bijvoorbeeld begrijpen van hoe zit een goede tekst in elkaar.

860
00:37:31,379 --> 00:37:32,999
Die heb je echt wel nodig.

861
00:37:32,999 --> 00:37:35,219
Want anders word je inderdaad te afhankelijk van AI.

862
00:37:35,219 --> 00:37:36,859
Dan weet je het zelf niet meer.

863
00:37:36,859 --> 00:37:39,799
Als een AI ooit wegvalt, dan kan je dat zelf dus niet.

864
00:37:40,479 --> 00:37:48,299
Maar als ik even de advocaat van de duivel speel, ik heb nog rijles gehad om een rijbewijs te halen.

865
00:37:48,299 --> 00:37:50,099
En dan moest je leren kaart lezen.

866
00:37:50,099 --> 00:37:57,919
Volgens mij mag je nu op de navigatie een route.

867
00:37:57,919 --> 00:38:03,659
Dan word je geleerd eigenlijk van hoe je goed met een navigatiesysteem kan rijden.

868
00:38:03,659 --> 00:38:06,739
Omdat dat een belangrijke vaardigheid is geworden.

869
00:38:07,779 --> 00:38:12,859
Ik denk dat ik Niels niet meer hoef te vragen van hier heb je een routeboek van de Shell.

870
00:38:12,859 --> 00:38:18,619
Zoek even de route uit naar een of andere grachtenpand in Amsterdam.

871
00:38:18,619 --> 00:38:20,159
Dat even kun je weglaten.

872
00:38:20,159 --> 00:38:20,439
Ja.

873
00:38:20,439 --> 00:38:24,879
En toch, mijn laatste vakantie in Italië was ik op roadtrip.

874
00:38:24,879 --> 00:38:28,739
Gelukkig kon ik nu mijn telefoon opladen in mijn auto.

875
00:38:28,739 --> 00:38:30,239
Want daar zit mijn navigatie op.

876
00:38:30,239 --> 00:38:31,939
Maar toen was mijn telefoon leeg.

877
00:38:31,939 --> 00:38:33,799
En toen stond ik in een vreemde stad.

878
00:38:34,799 --> 00:38:40,219
En toen had ik echt even zo'n momentje van, oké, ik kan me dus ook niet goed meer oriënteren.

879
00:38:40,219 --> 00:38:41,419
Met oké, waar kom ik nou eigenlijk vandaan?

880
00:38:41,419 --> 00:38:43,579
Want ik heb gewoon echt blind naar dat scherm zitten staren.

881
00:38:43,579 --> 00:38:44,899
Oké, rechtdoor, linksaf.

882
00:38:44,899 --> 00:38:51,359
En toen heb ik uiteindelijk, zeg maar na een paar keer iemand vragen, toen dacht ik nee, ik ga je niet uitkomen.

883
00:38:51,359 --> 00:38:53,699
Toen had ik echt volgens mij nog twee procent.

884
00:38:53,699 --> 00:38:55,759
Dan heb ik snel iemand in Nederland gebeld.

885
00:38:55,759 --> 00:38:56,119
Ja.

886
00:38:56,119 --> 00:38:58,019
Oké, twee minuten.

887
00:38:58,019 --> 00:38:59,159
Mijn telefoon valt bijna uit.

888
00:38:59,159 --> 00:39:00,319
Ik sta in Italië hier.

889
00:39:00,439 --> 00:39:04,079
Kan je zeg maar even zeggen welke kant ik naar de parkeergarage op moet?

890
00:39:04,079 --> 00:39:06,239
Ik had echt even paniek.

891
00:39:06,239 --> 00:39:08,379
Ik dacht, ik kom nooit meer bij de parkeergarage.

892
00:39:08,379 --> 00:39:10,739
Ja, ik vind het niet erg om dan een paar rondjes extra te rijden.

893
00:39:10,739 --> 00:39:11,959
Maar die zou ik wel nodig hebben ook.

894
00:39:11,959 --> 00:39:15,499
Maar dat zijn een soort van uitzonderingsgevallen.

895
00:39:15,499 --> 00:39:26,179
Kijk, waar ik naartoe wil is eigenlijk zo van, er zijn wel meer vaardigheden die we zeg maar in de overgang van het een naar het ander als zo essentieel ervaarden.

896
00:39:26,579 --> 00:39:28,319
Kaart lezen naar navigatie.

897
00:39:28,319 --> 00:39:33,799
Dat daarna, als we over zijn naar navigatie, het eigenlijk helemaal weglaten.

898
00:39:33,799 --> 00:39:39,159
En zeggen van ja, in 99,9 procent van de gevallen hebben we die niet meer nodig.

899
00:39:39,159 --> 00:39:44,179
Dus waarom zouden we zeg maar dat soort, daarom is het ook de advocaat van de duivel hè.

900
00:39:44,299 --> 00:39:55,899
Waarom zouden we, wat we nu zeg maar in dat leren of onderwijs, waarom zouden we dat nog zeg maar vast moeten houden als we weten als we door die transformatie heen zijn.

901
00:39:55,899 --> 00:39:57,339
Gaan we het er niet meer gebruiken.

902
00:39:57,339 --> 00:39:59,999
Nee, ik zeg niet dat we hem helemaal weg moeten halen.

903
00:39:59,999 --> 00:40:06,859
Maar ik denk wel, ik denk dat je echt een soort van een aantal basis skills die je als mens nodig hebt, zoals kritisch denken.

904
00:40:07,679 --> 00:40:09,719
Dat vind ik ook heel erg bij AI passen.

905
00:40:09,719 --> 00:40:13,199
Dat je moet goed kunnen beoordelen van waar komt die output vandaan.

906
00:40:13,199 --> 00:40:15,119
Dus ik denk dat het een combi moet zijn.

907
00:40:15,119 --> 00:40:17,919
Ik denk dat je een aantal basisvaardigheden altijd nodig hebt.

908
00:40:17,919 --> 00:40:18,139
Ja.

909
00:40:18,139 --> 00:40:21,279
Om gewoon als mens zeg maar te overleven in deze wereld.

910
00:40:21,279 --> 00:40:21,559
Ja.

911
00:40:22,239 --> 00:40:25,139
En daarnaast moet je wel leren hoe je met AI moet werken.

912
00:40:25,139 --> 00:40:29,439
Maar ik zou willen voorkomen dat je alleen maar met AI kan werken.

913
00:40:29,439 --> 00:40:30,399
Ja.

914
00:40:30,399 --> 00:40:31,179
Maar ik ben een hele goeie.

915
00:40:31,179 --> 00:40:33,519
Dat is ook een oproep aan alle scholen.

916
00:40:33,519 --> 00:40:33,919
Ja.

917
00:40:33,919 --> 00:40:34,799
Zeker.

918
00:40:34,799 --> 00:40:40,339
En dan niet alleen kritisch denken, maar ook onderzoeksvaardigheden en dergelijke om te kunnen toetsen of het goed is.

919
00:40:40,339 --> 00:40:41,659
Want we hebben het wel over voorspellingen.

920
00:40:41,659 --> 00:40:42,859
Dat is een procentueel iets.

921
00:40:42,859 --> 00:40:45,839
En ja, daar moet je dus wel rekening mee houden.

922
00:40:45,839 --> 00:40:46,839
Zeker.

923
00:40:47,839 --> 00:40:54,199
We zijn ook benieuwd naar, als je helemaal vrij zou mogen denken, wat jouw ultieme droom zou zijn.

924
00:40:54,199 --> 00:40:55,759
Dat is wel een risico als we dat ik Kim vraag.

925
00:40:55,759 --> 00:40:56,139
Ja.

926
00:40:56,139 --> 00:40:57,339
Ik ken haar wat langer dan vandaag.

927
00:40:57,339 --> 00:40:59,679
Je krijgt een klein beetje bedenktijd.

928
00:40:59,679 --> 00:41:03,659
Oh, wel het goede knopje indrukken.

929
00:41:03,659 --> 00:41:06,919
De droom, een leven vol gemak.

930
00:41:06,919 --> 00:41:11,579
De technologie die alles doet waar we van dromen.

931
00:41:11,579 --> 00:41:15,879
Geen grenzen meer, niets houdt ons nog tegen.

932
00:41:17,159 --> 00:41:21,879
Het leven zoals wij het altijd wilden beleven.

933
00:41:21,879 --> 00:41:30,119
Heb je een idee van, als je helemaal vrij zou mogen denken, wat zou je ultieme AI droom zijn?

934
00:41:30,119 --> 00:41:32,299
Ja.

935
00:41:32,299 --> 00:41:36,079
Ja, dan ga ik toch denk ik richting de hoek van de AI agents.

936
00:41:36,079 --> 00:41:36,579
Ja.

937
00:41:37,099 --> 00:41:44,719
Dat je gewoon echt hele processen die je zelf gewoon niet leuk vindt.

938
00:41:44,719 --> 00:41:48,059
Dat je eigenlijk dat AI agents echt onderdeel worden van je team.

939
00:41:48,059 --> 00:41:51,459
En dat je eigenlijk je team opnieuw kan gaan opbouwen.

940
00:41:51,459 --> 00:41:51,919
Oh ja.

941
00:41:53,399 --> 00:41:54,859
Dat zou ik heel tof vinden.

942
00:41:54,859 --> 00:41:59,399
Als we daar echt, dat we als mens, dat je werkt bijna alleen maar leuk wordt nog.

943
00:41:59,399 --> 00:42:02,459
Dat alle dingen waarvan je zegt, noah, ik weet niet of ik dat wil doen.

944
00:42:02,459 --> 00:42:04,999
Dat gewoon AI dat overneemt.

945
00:42:04,999 --> 00:42:08,719
En dat je zelf echt ruimte krijgt voor creatief denken.

946
00:42:09,399 --> 00:42:17,659
Ben je dan niet bang dat je een schurende collega mist die altijd net die prikkelende vraag stelt waar je in eerste instantie niet op zit te wachten.

947
00:42:18,439 --> 00:42:20,919
En de volgende dag denkt, nou.

948
00:42:20,919 --> 00:42:23,359
Maar die hou ik wel.

949
00:42:23,359 --> 00:42:23,919
Oké.

950
00:42:23,919 --> 00:42:30,379
Dat je echt bijna het soort van simsachtig, dat je je eigen teams kan gaan bouwen.

951
00:42:30,379 --> 00:42:30,619
Ja.

952
00:42:30,619 --> 00:42:34,099
En ik zou het ook echt, en ik denk dat dat dichterbij is dan me denken.

953
00:42:34,099 --> 00:42:38,539
Ik zou het heel tof vinden als dus de technologie meer richting de business komt.

954
00:42:38,539 --> 00:42:38,979
Ja.

955
00:42:38,979 --> 00:42:40,779
Ik zie nu al mijn eigen vak veranderen.

956
00:42:40,779 --> 00:42:43,059
Je hebt meer kennis nodig van technologie.

957
00:42:43,059 --> 00:42:46,079
Dat hadden we natuurlijk al een beetje met marketing automation überhaupt.

958
00:42:46,699 --> 00:42:49,559
Maar het lijkt me fantastisch als je echt gemengde teams krijgt.

959
00:42:49,559 --> 00:42:55,279
Dat echt de zwaar technische mensen gewoon standaard in een marketing team zitten.

960
00:42:55,279 --> 00:42:55,819
Oh ja.

961
00:42:55,819 --> 00:42:58,419
En dat dan voor het vervelende werk, daar heb je dan je AI agents voor.

962
00:42:58,419 --> 00:43:00,039
Oh, ik dacht die technische mensen.

963
00:43:00,039 --> 00:43:01,879
Oeh.

964
00:43:01,879 --> 00:43:05,359
Gevaarlijk om te zeggen, in een bedrijf met 600 IT'ers.

965
00:43:05,359 --> 00:43:07,019
Nee, nee, nee, zeker niet.

966
00:43:07,019 --> 00:43:14,299
Maar dat je dus, ik denk dat het gewoon heel verfrissend kan zijn dat je gewoon hele andere teamsamenstellingen kan krijgen.

967
00:43:15,239 --> 00:43:16,839
Dus daar zit die voor mij vooral in.

968
00:43:16,839 --> 00:43:22,319
En zie je ook, zeg maar, in die droom een plek in je privéleven voor AI?

969
00:43:22,319 --> 00:43:24,459
Ja, zeker.

970
00:43:24,459 --> 00:43:31,859
Nou ja, zeker als ik wat ouder word en dat ik denk, help, dit is weer een stuk.

971
00:43:31,859 --> 00:43:35,279
En waar normaal gesproken als het tv stuk is, is dat je misschien je kleinkinderen belt.

972
00:43:35,279 --> 00:43:37,159
Dat je nu gewoon een fotootje maakt.

973
00:43:37,159 --> 00:43:38,439
En dat kan natuurlijk nu eigenlijk al.

974
00:43:38,919 --> 00:43:42,259
En dat dan krijg je het antwoord, zeg je ja, nee, los het zelf maar op.

975
00:43:42,259 --> 00:43:47,659
Nu in mijn privéleven zou ik het bijvoorbeeld handig vinden, maar het kan eigenlijk al.

976
00:43:47,659 --> 00:43:53,999
Maar dat je bijvoorbeeld, dat je Google Speaker ineens zegt, ja, ik heb even je planning gemaakt voor vandaag.

977
00:43:53,999 --> 00:43:56,419
Je moet over een half uur de deur uit.

978
00:43:56,419 --> 00:43:58,779
En vergeet dan niet dit en dit in je tas te stoppen.

979
00:43:58,779 --> 00:44:01,979
Meer die kant op.

980
00:44:02,939 --> 00:44:03,219
Leuk.

981
00:44:03,219 --> 00:44:03,819
Mooi.

982
00:44:03,819 --> 00:44:06,919
Je triggerde mij wel al, Joop, met die kritische vraag inderdaad.

983
00:44:06,919 --> 00:44:10,919
Ik herkende gelijk inderdaad collega's die dan even zo vraag stellen, dat je niet in de momentum zit.

984
00:44:10,919 --> 00:44:14,039
En dan inderdaad, ik voelde dat gewoon toen je hem stelde.

985
00:44:14,039 --> 00:44:15,579
Maar dat zijn wel de collega's inderdaad.

986
00:44:15,579 --> 00:44:16,539
Hou die in je groep.

987
00:44:16,539 --> 00:44:20,379
Dat is hetzelfde waarom we het stellingenspel hebben, is dat je met elkaar kritisch blijft.

988
00:44:20,379 --> 00:44:22,259
En dat is af en toe zo'n vervelende vraag.

989
00:44:22,259 --> 00:44:24,159
Zo voelt hij soms als vervelende vraag.

990
00:44:24,159 --> 00:44:28,539
Maar dat zijn echt, ja, ervaar het niet als een aanval.

991
00:44:28,539 --> 00:44:32,319
Maar juist heel waardevol dat je die vragen krijgt van je collega's.

992
00:44:32,359 --> 00:44:36,519
Maar weet je, als ik hem zelf zie, die vragen komen vaak van mijn technische collega's.

993
00:44:36,519 --> 00:44:40,719
Dus als dan die teamsamenstelling verandert, dan zitten ze al in hetzelfde team.

994
00:44:40,719 --> 00:44:44,439
En ik denk inderdaad die multidisciplinaire aanpak voor dit soort vraagstukken.

995
00:44:44,439 --> 00:44:47,979
Omdat het zowel technisch als business als ethisch allemaal bij elkaar komt.

996
00:44:47,979 --> 00:44:51,519
Hoe we nu meer oplossingen kunnen maken met de technologie die het mogelijk maakt.

997
00:44:51,519 --> 00:44:54,279
Waar AI dan inderdaad de grote enabler is geworden.

998
00:44:54,279 --> 00:44:56,419
Dat je dat nodig hebt met elkaar.

999
00:44:56,419 --> 00:44:57,619
Die verschillende kennissen.

1000
00:44:57,619 --> 00:45:00,719
En dat is echt leuk om met zwaar technische mensen te werken, kan ik vertellen.

1001
00:45:01,779 --> 00:45:03,619
Heel fijn, dat scheelt weer.

1002
00:45:03,619 --> 00:45:10,439
Hé, jij hebt vast nagedacht over dit gesprek voordat we hier gingen zitten.

1003
00:45:10,439 --> 00:45:11,079
Een soort van.

1004
00:45:11,079 --> 00:45:16,019
Welke vragen hebben wij niet gesteld waarvan je het antwoord heel graag had willen geven?

1005
00:45:16,019 --> 00:45:19,419
Ja, ik denk dat je echt de meeste vragen wil hebben gesteld.

1006
00:45:21,419 --> 00:45:25,499
Misschien nog leuk om af te sluiten met even een hele praktische tip voor de managers die denken.

1007
00:45:25,499 --> 00:45:25,859
Zeker.

1008
00:45:25,859 --> 00:45:28,539
Ja, ik ga het boek van jou Kim, dat ga ik echt niet kopen.

1009
00:45:28,539 --> 00:45:29,439
Maar ik wil wel een tip.

1010
00:45:29,439 --> 00:45:32,279
Dan zou ik dus willen zeggen.

1011
00:45:32,279 --> 00:45:37,939
Maak binnen je team, een beetje afhankelijk van hoe groot het is.

1012
00:45:37,939 --> 00:45:43,179
Start met een aantal mensen die echt heel erg AI ambassadeur zijn.

1013
00:45:43,919 --> 00:45:48,239
En kijk eens of je met hun kan beginnen met in kaart brengen waar jullie nu staan en waar jullie naartoe willen.

1014
00:45:48,239 --> 00:45:52,999
En wat er voor nodig is om van A naar B te komen.

1015
00:45:52,999 --> 00:45:57,659
En ga dan met elkaar goed gestructureerde pilots doen.

1016
00:45:58,619 --> 00:46:00,939
En dan weet ik zeker dat je het makkelijk kan uitbouwen.

1017
00:46:00,939 --> 00:46:02,959
En dat het vooral ook leuk wordt voor de rest van je team.

1018
00:46:02,959 --> 00:46:05,519
Nou, lijkt me een hele goede tip om mee af te sluiten.

1019
00:46:05,519 --> 00:46:07,439
Noem me even de titel van je boek.

1020
00:46:07,439 --> 00:46:12,079
Ik kan zeggen, en hoe kunnen mensen eraan komen als ze dit geluisterd hebben en ze willen het boek ook bestellen?

1021
00:46:12,079 --> 00:46:14,219
Werk hand in hand met AI.

1022
00:46:14,219 --> 00:46:17,279
In vijf stappen naar een AI aanpak voor je team.

1023
00:46:17,279 --> 00:46:18,239
De volledige titel.

1024
00:46:18,239 --> 00:46:22,139
Je kan het overal kopen bij managementboek, bol.com, Bruna.

1025
00:46:22,139 --> 00:46:26,519
En als je zegt, ik wil een gesignereerd exemplaar, zoek me even op LinkedIn op.

1026
00:46:26,519 --> 00:46:27,399
Dan gaan we dat fixen.

1027
00:46:27,739 --> 00:46:30,219
Nou, dat lijkt me een hele mooie...

1028
00:46:30,219 --> 00:46:34,599
Kim, hartstikke bedankt dat je wilde vertellen en het delen van de tips.

1029
00:46:34,599 --> 00:46:35,979
Heel praktisch, denk ik.

1030
00:46:35,979 --> 00:46:38,119
Dank je wel weer voor het luisteren.

1031
00:46:38,119 --> 00:46:42,519
Vergeet je niet te abonneren via je favoriete podcast-app.

1032
00:46:42,519 --> 00:46:43,899
En dan mis je geen aflevering.

1033
00:46:43,899 --> 00:46:44,879
Tot de volgende keer.

1034
00:46:44,879 --> 00:46:45,679
Tot de volgende keer.

1035
00:46:45,679 --> 00:46:49,519
[Muziek]


People on this episode