AIToday Live
AIToday Live is een boeiende Nederlandstalige podcast voor iedereen die geïnteresseerd is in de wereld van kunstmatige intelligentie, ongeacht hun technische achtergrond. Hier zijn een paar redenen waarom je misschien wilt luisteren naar AIToday Live:
- Expert Inzichten: De podcast biedt gesprekken met Nederlandse en Belgische experts op het gebied van AI, waardoor luisteraars waardevolle inzichten en meningen rechtstreeks van leiders en vernieuwers in de industrie krijgen.
- Toegankelijk voor een Breed Publiek: Of je nu diep in de technische details zit of gewoon nieuwsgierig bent naar AI, de podcast presenteert informatie op een manier die zowel begrijpelijk als boeiend is voor zowel zakelijke als IT-professionals.
- Laatste Nieuws en Trends: Blijf op de hoogte van de nieuwste ontwikkelingen en innovaties in AI. De podcast dekt AI for Good en andere belangrijke trends die invloed kunnen hebben op verschillende industrieën en de samenleving als geheel.
Gepresenteerd door Joop Snijder, CTO van Aigency, en Niels Naglé, Area Lead Data & AI van Info Support, biedt de podcast een uniek perspectief op de praktische toepassing van AI binnen organisaties. Het duo bespreekt de (on)mogelijkheden van AI, de impact ervan op bedrijfsprocessen en hoe organisaties deze technologie kunnen inzetten om hun doelstellingen te bereiken.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Met deskundige gasten uit de industrie en academische wereld, biedt de AIToday Live podcast een platform voor het delen van best practices, innovaties en belangrijke inzichten in de wereld van AI. Van de nieuwste algoritmen en modellen tot de impact van AI op de toekomst van werk, de podcast biedt waardevolle informatie voor iedereen die geïnteresseerd is in AI en de rol die het speelt in organisaties.
Voor exclusieve content over de podcast achter de schermen, aankondiging van gasten en exclusieve artikelen, schrijf je dan in voor de nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S06E93 - Mis het niet: de voordelen van AI-collega's in je team
Michiel Schoonhoven, oprichter van marketingbureau NXTLI, vertelt over hun innovatieve aanpak met AI-assistenten als virtuele collega's. NXTLI heeft momenteel vijf AI-collega's met eigen specialisaties die repetitieve taken overnemen.
Deze aanpak stelt menselijke medewerkers in staat zich te concentreren op innovatie en kwaliteitsverbetering. NXTLI gebruikt een combinatie van AI-tools zoals ChatGPT en Claude om de virtuele collega's te trainen.
Transparantie over het gebruik van AI en aandacht voor ethische overwegingen zijn belangrijke aspecten van hun strategie. Goede training en een duidelijk AI-beleid zijn essentieel om veiligheidsrisico's te beperken.
Onderwerpen
- Ontwikkeling van AI-collega's bij NXTLI
- Automatisering van repetitieve taken
- Training van AI-tools zoals ChatGPT en Claude
- Transparantie en acceptatie van AI binnen bedrijven
- Ethische overwegingen en AI-beleid
Links
- Podcast: AIToday Live podcast
- Bedrijf: NXTLI
- Nieuwsbrief: Marketing AI Friday
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: NXTLI
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,001 --> 00:00:11,600
In deze aflevering hoor je hoe Michiel Schoonhoven van marketingbureau NXTLI AI slimme AI-assistenten creëert, namelijk AI-collega's.
2
00:00:11,600 --> 00:00:17,200
En deze collega's krijgen eigen namen, specialisaties en profielen.
3
00:00:17,200 --> 00:00:23,840
Zo kunnen medewerkers effectief werken en tijd vrijmaken voor innovatie en kwaliteit.
4
00:00:23,840 --> 00:00:29,760
Michiels aanpak van de vermenselijking werkt in elke sector, dus blijf luisteren.
5
00:00:29,760 --> 00:00:36,600
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live, de Nederlandse
6
00:00:36,600 --> 00:00:38,600
podcast over AI.
7
00:00:38,600 --> 00:00:45,040
En vandaag, oh nee ik zal die eens even onszelf even introduceren, want dat is wel zo handig.
8
00:00:45,040 --> 00:00:47,440
Mijn naam is Joop Snijder, CTO bij Ethacy.
9
00:00:47,440 --> 00:00:50,440
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.
10
00:00:50,440 --> 00:00:54,160
En vandaag in de studio hebben we Michiel Schoonhoven.
11
00:00:54,160 --> 00:00:58,760
En Michiel, zou jij je eerst willen voorstellen aan de luisteraar?
12
00:00:58,760 --> 00:01:01,600
Zeker, lekker introductiemuziekje trouwens.
13
00:01:01,600 --> 00:01:02,600
Dankjewel.
14
00:01:02,600 --> 00:01:03,600
Lekker ontspannen.
15
00:01:03,600 --> 00:01:06,600
Michiel Schoonhoven, woon in Haarlem.
16
00:01:06,600 --> 00:01:08,600
Vader van drie kinderen.
17
00:01:08,600 --> 00:01:16,000
Al lange tijd werkzaam op het snijvlak van communicatie en technologie.
18
00:01:16,000 --> 00:01:17,000
Ja.
19
00:01:17,000 --> 00:01:19,600
En hoe ben je daar zo in terecht gekomen?
20
00:01:19,600 --> 00:01:23,440
Ja, ik ben vanaf 2000 werkzaam.
21
00:01:23,440 --> 00:01:28,440
Begon bij een van de eerste internetbureaus van Nederland.
22
00:01:28,440 --> 00:01:32,440
Toen internet net aan het opkomen was, had je natuurlijk heel veel webbouwbedrijfjes.
23
00:01:32,440 --> 00:01:33,440
Ja.
24
00:01:33,440 --> 00:01:37,280
En eentje daarvan was Puls Interactive, waar ik gestart ben.
25
00:01:37,280 --> 00:01:42,120
Daarna eigenlijk altijd heel veel verschillende marketingrollen gehad.
26
00:01:42,120 --> 00:01:46,960
En altijd de interesse gehad op het snijvlak technologie.
27
00:01:46,960 --> 00:01:50,800
Veel met e-mailmarketing bijvoorbeeld bezig geweest.
28
00:01:50,800 --> 00:01:56,240
Allerlei uitgebreide, gepersonaliseerde e-mailflows ingericht.
29
00:01:56,240 --> 00:02:00,420
Web ontwikkelingen en allerlei verschillende.
30
00:02:00,420 --> 00:02:05,460
Uiteindelijk content marketing initiatieven die we genomen hebben.
31
00:02:05,460 --> 00:02:09,740
Eind 2008, 2009.
32
00:02:10,660 --> 00:02:12,800
Waar de organisatie toen waar ik werkte.
33
00:02:12,800 --> 00:02:20,900
Zijn we eigenlijk heel erg bezig geweest met hoe kunnen we nou informatie verstrekken aan ons publiek.
34
00:02:20,900 --> 00:02:24,740
Die niet commercieel direct is, maar echt een binding met ze opbouwt.
35
00:02:24,740 --> 00:02:30,720
En in 2011 kwam ik Joe Pulizzi tegen in Amerika.
36
00:02:30,720 --> 00:02:33,500
Die zijn eerste content marketing world congres organiseerde.
37
00:02:33,500 --> 00:02:34,920
En hij noemde dat content marketing.
38
00:02:34,920 --> 00:02:38,360
Wat ik toen nog niet wist dat het zou heten.
39
00:02:39,200 --> 00:02:41,640
Hij wordt ook wel de godfather van content marketing genoemd.
40
00:02:41,640 --> 00:02:44,240
En toen dacht ik, oké, kennelijk doe ik content marketing.
41
00:02:44,240 --> 00:02:46,760
En is dat mijn wereldje?
42
00:02:46,760 --> 00:02:49,760
En daar ben ik toen eigenlijk op doorontwikkeld.
43
00:02:49,760 --> 00:02:51,600
2012.
44
00:02:53,580 --> 00:02:55,720
Ook een technische vernieuwd.
45
00:02:55,720 --> 00:02:56,340
En dat was een technische vernieuwd.
46
00:02:56,340 --> 00:02:57,440
Waar ik toen mee bezig was.
47
00:02:57,440 --> 00:02:59,400
Ik liep tegen Jive Software aan.
48
00:02:59,400 --> 00:03:00,780
Wat een Amerikaans bedrijf was.
49
00:03:00,780 --> 00:03:04,000
Wat community software aanbood.
50
00:03:04,000 --> 00:03:10,280
Toen dacht ik, dat zou tof zijn als we in onze organisatie community opbouwen met onze klanten.
51
00:03:11,140 --> 00:03:13,400
Waar we online kunnen samenwerken met elkaar.
52
00:03:13,400 --> 00:03:15,120
Veel content kunnen delen.
53
00:03:15,120 --> 00:03:18,840
Informatie en communicatie kunnen afstemmen.
54
00:03:18,840 --> 00:03:23,620
En sindsdien begon voor mij ook het op locatie kunnen werken.
55
00:03:23,620 --> 00:03:25,100
Want ik dacht, oh dat is gaaf.
56
00:03:25,100 --> 00:03:26,140
We hoeven niet meer naar een kantoor.
57
00:03:26,140 --> 00:03:28,220
Of allerlei kantoortjes langs.
58
00:03:28,220 --> 00:03:28,980
In afspraken.
59
00:03:28,980 --> 00:03:30,880
Dat kunnen we gewoon in een digitale omgeving doen.
60
00:03:32,360 --> 00:03:34,580
En een stukje verder.
61
00:03:34,580 --> 00:03:38,600
2015 ben ik voor mezelf begonnen.
62
00:03:38,600 --> 00:03:42,620
Eigenlijk als content marketing strateeg bij organisaties.
63
00:03:42,620 --> 00:03:46,000
En ik merkte dat dat vakgebied eigenlijk heel snel aan het ontwikkelen was.
64
00:03:46,000 --> 00:03:48,200
Heel veel specialiteiten die daarbij kwamen.
65
00:03:48,200 --> 00:03:50,800
Dacht ik, dat kan ik niet allemaal in mijn eentje.
66
00:03:50,800 --> 00:03:56,240
Dus laat ik eens kijken of ik wat mensen om me heen kan verzamelen.
67
00:03:56,240 --> 00:03:58,160
Om dat met elkaar te gaan doen.
68
00:03:58,160 --> 00:04:00,520
Ik zag ook dat datagedrevenheid steeds belangrijker werd.
69
00:04:00,520 --> 00:04:03,360
Dat is niet mijn kernpassie.
70
00:04:03,360 --> 00:04:06,220
Maar een goede vriend van mij is Dennis Doeland.
71
00:04:06,220 --> 00:04:08,620
Waar ik toen mee in gesprek ben geraakt.
72
00:04:08,620 --> 00:04:10,300
Hoe pak jij dat aan?
73
00:04:10,300 --> 00:04:14,560
Uiteindelijk hebben we het business model zoals hij had.
74
00:04:14,560 --> 00:04:18,660
En zijn methodiek gekoppeld met mijn content methodiek.
75
00:04:18,660 --> 00:04:22,560
En uiteindelijk is daar een bedrijf NXTLI uitgekomen.
76
00:04:22,560 --> 00:04:23,820
Next level impact.
77
00:04:23,820 --> 00:04:25,940
Dus we wilden next level continu zijn.
78
00:04:25,940 --> 00:04:27,040
En we wilden impact maken.
79
00:04:27,040 --> 00:04:29,360
En dat zijn we in 2017 gestart.
80
00:04:29,640 --> 00:04:32,980
Zoals we het noemen een data gedreven content marketing bureau.
81
00:04:32,980 --> 00:04:36,860
Waarbij we klanten helpen met de content strategie en implementatie daarvan.
82
00:04:36,860 --> 00:04:41,520
En een paar jaar later komt AI eigenlijk aanzetten.
83
00:04:41,520 --> 00:04:44,420
Waarvan wij zeiden oké dat is interessant.
84
00:04:44,420 --> 00:04:48,360
Want eigenlijk kunnen we nu data en content met technologie gaan verbinden.
85
00:04:48,360 --> 00:04:49,880
Op een hele slimme goede manier.
86
00:04:49,880 --> 00:04:52,940
Waarbij we en efficiënter kunnen werken.
87
00:04:53,120 --> 00:04:55,680
Maar ook veel meer kunnen innoveren.
88
00:04:55,680 --> 00:04:58,840
En nieuwe dienstverlening mogelijk maken.
89
00:04:58,840 --> 00:05:02,260
En hoe ziet die verbinding er bij jou praktisch uit?
90
00:05:02,260 --> 00:05:09,140
Afgelopen jaar hebben we eigenlijk heel veel data inzichten verzameld voor onze klanten.
91
00:05:09,140 --> 00:05:11,240
We hebben allerlei dashboard voor ontwikkeld.
92
00:05:11,240 --> 00:05:15,080
En daar hebben we ook onze content strategieën op afgestemd.
93
00:05:15,080 --> 00:05:16,260
Daar monitoren we ook op.
94
00:05:17,340 --> 00:05:20,040
Dat stond eigenlijk altijd een beetje los van de praktijk.
95
00:05:20,040 --> 00:05:20,960
We hadden altijd veel werk.
96
00:05:20,960 --> 00:05:22,560
We moesten veel analyses maken.
97
00:05:22,560 --> 00:05:23,460
Veel rapportages.
98
00:05:23,460 --> 00:05:25,100
En wat voor data hebben we het dan over?
99
00:05:25,100 --> 00:05:26,000
Een beetje tastbaar.
100
00:05:26,000 --> 00:05:27,220
Ja echt marketing data.
101
00:05:27,220 --> 00:05:28,820
Dus alle social media performances.
102
00:05:28,820 --> 00:05:31,300
Je web data.
103
00:05:31,560 --> 00:05:33,160
De conversies naar omzet.
104
00:05:33,160 --> 00:05:33,620
De views.
105
00:05:33,620 --> 00:05:36,360
De campagnes die je draaide.
106
00:05:36,360 --> 00:05:37,880
Welke resultaten bereik je dan nu?
107
00:05:37,880 --> 00:05:39,000
Welke campagne doet het goed?
108
00:05:39,000 --> 00:05:40,360
Welke doet het minder goed?
109
00:05:40,360 --> 00:05:44,500
En dus eigenlijk alle marketing gerelateerde informatie.
110
00:05:44,500 --> 00:05:49,400
Dus die stonden eigenlijk een beetje los van elkaar.
111
00:05:49,400 --> 00:05:51,520
Dus we hadden dashboards.
112
00:05:51,520 --> 00:05:53,580
We hebben content strategieën die we maakten.
113
00:05:53,580 --> 00:05:54,220
Toen zaten oké.
114
00:05:54,220 --> 00:05:58,200
Daar is veel begeleiding voor nodig aan de klantkant.
115
00:05:58,200 --> 00:06:00,540
En aan onze kant om dat dan goed te implementeren.
116
00:06:01,460 --> 00:06:07,840
En nu zien we eigenlijk met AI een mogelijkheid om en analyses op een snellere en betere manier te kunnen doen.
117
00:06:07,840 --> 00:06:09,180
Waar we zelf gewoon niet aan toe kwamen.
118
00:06:09,180 --> 00:06:11,060
Of wat heel veel tijd kostte.
119
00:06:11,060 --> 00:06:16,780
En we verbinden dat eigenlijk naar zoals wij het dan noemen AI collega's.
120
00:06:16,780 --> 00:06:22,760
Die een stuk van de implementatie kunnen doen op klantniveau en bij onszelf.
121
00:06:22,760 --> 00:06:24,180
AI collega's?
122
00:06:24,180 --> 00:06:25,620
Waar moet ik dan aan denken?
123
00:06:26,580 --> 00:06:28,020
Ja eigenlijk een...
124
00:06:28,020 --> 00:06:32,180
Wij proberen het een beetje te personaliseren.
125
00:06:32,180 --> 00:06:33,380
Dat vinden we ook gewoon leuk.
126
00:06:33,380 --> 00:06:34,260
En daar geloven we in.
127
00:06:34,740 --> 00:06:37,080
Dus wij hebben een beleid dat we zeggen.
128
00:06:37,080 --> 00:06:42,460
Nou we hebben AI collega's in die benaderen zoals wij ook gewoon onze eigen collega's benaderen.
129
00:06:42,460 --> 00:06:44,320
Dus wij werken dan zelf veel in Slack.
130
00:06:44,320 --> 00:06:46,840
We hebben klanten die ook in Slack werken of in Teams.
131
00:06:46,840 --> 00:06:52,420
En we hebben eigenlijk een integratie ontwikkeld met een best wel complexe flow inmiddels.
132
00:06:53,560 --> 00:07:00,120
Waarbij je eigenlijk een collega in Slack of Teams kan aanroepen.
133
00:07:00,120 --> 00:07:05,260
Die met een naam, een foto en gewoon een dialoog met je kan voeren.
134
00:07:05,260 --> 00:07:06,500
Maar wat een AI collega is.
135
00:07:06,500 --> 00:07:07,840
Oké.
136
00:07:07,840 --> 00:07:11,160
En weet de andere kant ook dat het een AI collega is?
137
00:07:11,160 --> 00:07:11,960
Of dat niet?
138
00:07:11,960 --> 00:07:13,320
Ja daar zijn we transparant in.
139
00:07:13,320 --> 00:07:19,200
We geloven ook dat je heel transparant moet zijn wat door AI gemaakt wordt en wie een AI is.
140
00:07:19,560 --> 00:07:27,220
Soms zie je voorbeelden komen van bedrijven of mensen die gebruiken een AI bijvoorbeeld voor zichzelf.
141
00:07:27,220 --> 00:07:29,920
Om zichzelf uit te beelden maar benoemen dat niet.
142
00:07:29,920 --> 00:07:32,680
Dat zien we wel een risicofactor.
143
00:07:32,680 --> 00:07:36,600
Op het moment dat mensen erachter komen en denken dat ze met een echt persoon te maken hebben.
144
00:07:36,600 --> 00:07:38,640
En dat blijkt dan een AI persoon te zijn.
145
00:07:38,640 --> 00:07:40,880
Dat voelt toch niet zo lekker.
146
00:07:40,880 --> 00:07:43,520
En we zien juist het tegenovergestelde als je heel duidelijk laat zien.
147
00:07:43,520 --> 00:07:44,380
Dit is mijn AI.
148
00:07:44,380 --> 00:07:47,180
Die doet bepaalde dingen voor mij.
149
00:07:47,180 --> 00:07:50,900
Die is getraind op mijn kennis.
150
00:07:50,900 --> 00:07:53,400
En daar kan je gebruik van maken op elk moment dat je wil.
151
00:07:53,400 --> 00:07:56,780
Dan snappen mensen het en accepteren ze het ook meer.
152
00:07:56,780 --> 00:08:00,260
En de klanten die er gebruik van maken, wat is hun ervaring dan daarmee?
153
00:08:00,260 --> 00:08:03,860
Die worden steeds positiever eigenlijk.
154
00:08:03,860 --> 00:08:08,480
Ik schrijf sinds vorig jaar elke week een nieuwsbrief.
155
00:08:08,480 --> 00:08:11,380
Om ze ook gewoon mee te nemen in wat er allemaal gebeurt.
156
00:08:12,020 --> 00:08:17,520
In het begin kreeg ik nogal eens vragen van, je schrijft over AI en JCPT, maar wat is dat nou eigenlijk?
157
00:08:17,520 --> 00:08:27,000
Het gat tussen de praktijk en AI was nog best groot.
158
00:08:27,000 --> 00:08:27,860
Dat wordt kleiner.
159
00:08:27,860 --> 00:08:30,520
We zien nu de afgelopen maanden echt momentum ontstaan.
160
00:08:30,520 --> 00:08:34,380
Dat klanten zeggen, we lezen al een tijd over die AI-collega.
161
00:08:34,380 --> 00:08:35,320
We zien hoe het werkt.
162
00:08:35,320 --> 00:08:35,820
Tof.
163
00:08:35,820 --> 00:08:37,060
Daar willen we ook echt iets mee.
164
00:08:37,060 --> 00:08:39,740
Laten we aan de gang gaan ermee.
165
00:08:39,740 --> 00:08:41,840
Je hebt het over collega's.
166
00:08:41,840 --> 00:08:45,500
Waarom heb je er meer en is het er niet één?
167
00:08:45,500 --> 00:08:46,920
Eén die alles kan?
168
00:08:46,920 --> 00:08:53,980
Omdat we ervaren dat op het moment dat je een AI-collega probeert te trainen,
169
00:08:53,980 --> 00:08:59,140
dat je dat beter op een specifieke dataset en een duidelijke rol kan doen.
170
00:08:59,140 --> 00:09:05,940
Om betere output te krijgen dan dat je hem veel te breed op veel te veel informatie gaat proberen te trainen.
171
00:09:07,000 --> 00:09:12,060
En we zien het ook gewoon als een normale collega met een duidelijke functiebeschrijving, duidelijke rol,
172
00:09:12,060 --> 00:09:14,720
een aantal taken die hij heeft en heel goed moet doen.
173
00:09:14,720 --> 00:09:18,000
En daar, ja, zo richten we het eigenlijk ook in.
174
00:09:18,000 --> 00:09:20,800
Hoe zijn jullie tot die afbakening dan gekomen?
175
00:09:20,800 --> 00:09:23,020
Hoeveel heb je er nu?
176
00:09:23,020 --> 00:09:24,020
Laten we daar eens mee beginnen.
177
00:09:24,020 --> 00:09:26,740
We hebben nu vijf, hebben we daar.
178
00:09:26,740 --> 00:09:26,980
Zo.
179
00:09:27,420 --> 00:09:37,480
Met daarnaast nog heel veel AI-assistenten, zeg maar, die we meer intern gebruiken en niet als dienstverlening aanbieden.
180
00:09:38,480 --> 00:09:47,340
Maar dat zit inderdaad op het schrijven van captions, het maken van content planning, het maken van artikelen, het doen van analyses.
181
00:09:47,340 --> 00:09:49,800
En die zijn ook aan elkaar gekoppeld.
182
00:09:49,800 --> 00:09:51,160
Dus ze hebben ook een gedeeld geheugen.
183
00:09:51,160 --> 00:09:55,760
Dus op het moment dat je, Pia, die noemt me dan de content planner.
184
00:09:56,040 --> 00:10:02,140
Die maakt een content planning en vervolgens kan Lisa, de social media caption creator, kan door op die planning en zeggen,
185
00:10:02,140 --> 00:10:07,540
dit zijn de onderdelen waar wat social posts zijn, daar moet ik social captions op schrijven.
186
00:10:07,540 --> 00:10:10,060
En die gaat dan aan de gang met het uitwerken van de captions.
187
00:10:10,060 --> 00:10:10,960
Grappig.
188
00:10:10,960 --> 00:10:17,060
Maar toch nog even, want nou heb je dan vijf van dit soort collega's.
189
00:10:17,060 --> 00:10:25,220
Waar zet je zeg maar de grens eromheen van, nou Pia doet dit en daar houdt haar werk op?
190
00:10:25,220 --> 00:10:27,100
Goeie vraag.
191
00:10:27,100 --> 00:10:36,440
Ja, we kijken daarin eigenlijk op hoe we die het beste kunnen trainen.
192
00:10:36,440 --> 00:10:40,220
Dus welk afgebakend gebied moet iemand heel goed kunnen.
193
00:10:40,220 --> 00:10:46,900
Waar ook veel data vergaring bij nodig is om gewoon tot goede output te komen.
194
00:10:46,900 --> 00:10:50,920
En dat kijken we met name op een rol- en taakniveau.
195
00:10:50,920 --> 00:10:55,260
Zoals we zien van een content planning is gewoon één specifieke taak.
196
00:10:55,260 --> 00:10:56,900
Moet iemand heel goed kunnen doen.
197
00:10:56,900 --> 00:11:01,660
Daar is heel veel verschillende data input voor nodig waar rekening mee gehouden moet worden.
198
00:11:01,660 --> 00:11:04,380
Dan is dat voor ons de afbakening.
199
00:11:04,380 --> 00:11:05,040
Ja, precies.
200
00:11:05,040 --> 00:11:08,280
Dan testen we eigenlijk net zo lang door totdat het gewoon goed werkt.
201
00:11:08,280 --> 00:11:09,780
Oké, dit is prima.
202
00:11:11,200 --> 00:11:14,100
Op dit moment, de ontwikkelingen gaan natuurlijk heel hard.
203
00:11:14,100 --> 00:11:17,720
Dus we hebben intern ook een beleid dat we zeggen, oké.
204
00:11:17,720 --> 00:11:20,480
Er zijn ook managers van de AI-collega's.
205
00:11:20,480 --> 00:11:24,880
Die moeten gewoon zorgen dat ze goed getraind, goed opgeleid en goed zich doorontwikkelen.
206
00:11:24,880 --> 00:11:27,260
En daar is ook gewoon een verantwoordelijkheid voor.
207
00:11:27,260 --> 00:11:31,540
Dus er zijn ambitiegesprekken met de AI-collega's?
208
00:11:33,180 --> 00:11:35,040
Ja, die hebben we nog niet, maar dat is een goed idee.
209
00:11:35,040 --> 00:11:36,660
Dat kunnen we zeker.
210
00:11:36,660 --> 00:11:40,240
De POP-gesprekken met de AI-collega's moeten we maar eens gaan toevoegen.
211
00:11:40,240 --> 00:11:41,680
Ja, en waarom hebben we...
212
00:11:41,680 --> 00:11:43,700
Want ik vind het buitengewoon interessant.
213
00:11:43,700 --> 00:11:47,260
Wij zeggen best wel heel vaak in de podcast van...
214
00:11:47,260 --> 00:11:49,240
Ja, weet je, we gaan het niet vermenselijken.
215
00:11:49,240 --> 00:11:50,440
Het is een tool.
216
00:11:50,440 --> 00:11:53,220
Maar jullie zitten echt aan de andere kant.
217
00:11:53,220 --> 00:11:55,380
Dus ik ben daar echt wel heel erg benieuwd naar.
218
00:11:55,380 --> 00:11:59,160
Wat is de initiële gedachte geweest om te zeggen van...
219
00:11:59,160 --> 00:12:00,400
Wij vermenselijken het wel.
220
00:12:00,400 --> 00:12:07,140
Ja, we zien natuurlijk de verschillende tools...
221
00:12:07,140 --> 00:12:13,640
Waar je gewoon met een virtuele avatar met een afbeelding...
222
00:12:13,640 --> 00:12:18,480
Of het nou een echte foto of een soort cartoonachtige foto...
223
00:12:18,480 --> 00:12:20,380
Waar je gewoon een dialoog mee kan hebben.
224
00:12:20,380 --> 00:12:25,160
Dus die vermenselijking, die zie ik daar eigenlijk al gebeuren.
225
00:12:25,340 --> 00:12:31,080
Dus op het moment dat je dat op die manier gaat insteken...
226
00:12:31,080 --> 00:12:34,120
Dan sluit je in ieder geval aan op die trend.
227
00:12:34,120 --> 00:12:35,340
Dus dat is één.
228
00:12:35,340 --> 00:12:37,040
En de ander...
229
00:12:37,040 --> 00:12:38,060
Ja, ik vind het gewoon leuker.
230
00:12:38,060 --> 00:12:38,840
Oh ja.
231
00:12:38,840 --> 00:12:40,940
Ik vind het gewoon leuker om dat te doen.
232
00:12:40,940 --> 00:12:43,120
En ik heb veel gesprekken in het team.
233
00:12:43,120 --> 00:12:44,660
In ons team ook daarover.
234
00:12:44,660 --> 00:12:47,220
En ook op een gegeven moment gezegd...
235
00:12:47,220 --> 00:12:48,780
Ja, we gaan gewoon het experiment aan.
236
00:12:48,780 --> 00:12:50,580
En het experiment is...
237
00:12:50,580 --> 00:12:53,820
En we zijn een team van twaalf mensen.
238
00:12:54,000 --> 00:12:55,920
En we zeggen, oké...
239
00:12:55,920 --> 00:12:57,880
Als je nou eens tien collega's kan aannemen.
240
00:12:57,880 --> 00:12:59,080
Per persoon.
241
00:12:59,080 --> 00:13:02,680
Ga dan eens beschrijven hoe zo'n rol eruit ziet.
242
00:13:02,680 --> 00:13:03,720
Wat moet die kunnen doen?
243
00:13:03,720 --> 00:13:05,480
Wat voor type persoon?
244
00:13:05,480 --> 00:13:06,240
Wat voor functie?
245
00:13:06,240 --> 00:13:06,740
Etcetera.
246
00:13:06,740 --> 00:13:08,400
Nou, dat heeft het team gedaan.
247
00:13:08,400 --> 00:13:11,740
Daar hebben we een enorme waslijst van punten gekregen.
248
00:13:11,740 --> 00:13:14,800
En we hebben gezegd, oké, die gaan we aannemen.
249
00:13:14,800 --> 00:13:17,260
Maar niet op een traditionele manier.
250
00:13:17,260 --> 00:13:18,520
Dat worden AI-collega's.
251
00:13:18,520 --> 00:13:20,720
En die ga jij dan ook...
252
00:13:20,720 --> 00:13:22,400
Jij gaat ook verantwoordelijk voor dat team worden.
253
00:13:22,620 --> 00:13:24,740
Je mag ze een naam geven.
254
00:13:24,740 --> 00:13:27,220
Je mag de rolbeschrijving geven.
255
00:13:27,220 --> 00:13:28,960
En vervolgens gaan we die trainen.
256
00:13:28,960 --> 00:13:30,800
En zorgen dat die in werking gaan komen.
257
00:13:30,800 --> 00:13:32,040
Ik vind het eigenlijk wel een hele mooie.
258
00:13:32,040 --> 00:13:34,540
Wij komen natuurlijk ook best wel heel veel bij bedrijven.
259
00:13:34,540 --> 00:13:37,880
En dan hebben we het over use cases.
260
00:13:37,880 --> 00:13:40,020
Waar zou AI worden ingezet?
261
00:13:40,540 --> 00:13:43,400
En voordat je het weet, zit je in de technologie.
262
00:13:43,400 --> 00:13:46,960
En wat jij nu beschrijft, is dat je uitgaat van...
263
00:13:46,960 --> 00:13:50,540
Stel dat we mensen mogen aannemen.
264
00:13:50,540 --> 00:13:54,260
Dus je denkt eigenlijk in hoe werk uitgevoerd moet worden.
265
00:13:54,260 --> 00:13:56,960
En komt de AI eigenlijk erachteraan.
266
00:13:56,960 --> 00:13:58,880
Wat zijn er van...
267
00:13:58,880 --> 00:14:01,300
Oh ja, maar daar kunnen we mogelijk een implementatie voor maken.
268
00:14:01,300 --> 00:14:02,760
Ja, klopt.
269
00:14:02,880 --> 00:14:05,000
En daaraan gekoppeld ook nog...
270
00:14:05,000 --> 00:14:07,300
Vanuit de menselijke collega.
271
00:14:07,300 --> 00:14:07,880
Ja.
272
00:14:07,880 --> 00:14:10,240
Hoe zie je nou je optimale rol zelf?
273
00:14:10,240 --> 00:14:10,880
Ja.
274
00:14:10,880 --> 00:14:12,340
Waar kom je niet aan toe?
275
00:14:12,340 --> 00:14:14,420
Wat zou je nou echt fantastisch vinden om te doen?
276
00:14:15,020 --> 00:14:17,260
En dan zie je eigenlijk in die gesprekken, in die uitwerking...
277
00:14:17,260 --> 00:14:18,700
Dan worden er heel veel dingen opgeschreven...
278
00:14:18,700 --> 00:14:21,420
Wat repeterende werkzaamheden zijn...
279
00:14:21,420 --> 00:14:22,740
Die eigenlijk...
280
00:14:22,740 --> 00:14:25,340
Nou ja, wat niet de meeste uitdaging heeft...
281
00:14:25,340 --> 00:14:26,680
En niet de nieuwste vernieuwing in zit.
282
00:14:26,680 --> 00:14:30,780
En eigenlijk zie je met name dat de rolbeschrijvingen in dat segment zitten.
283
00:14:30,780 --> 00:14:35,120
En als we dan het gesprek met de menselijke collega's gaan...
284
00:14:35,120 --> 00:14:36,960
Oké, wat blijft er voor jou dan over?
285
00:14:36,960 --> 00:14:38,960
Dan ontstaat er vernieuwing...
286
00:14:40,260 --> 00:14:43,940
Een uitdagendere manier van...
287
00:14:43,940 --> 00:14:45,480
Een rol van werkzaamheden doen.
288
00:14:45,480 --> 00:14:46,980
Ja, dat is gaaf.
289
00:14:46,980 --> 00:14:48,680
En dat geeft ook energie voor de mens.
290
00:14:48,680 --> 00:14:51,500
Want je hoort heel veel mensen die bang zijn voor AI.
291
00:14:51,500 --> 00:14:53,900
Van ja, het gaat mijn rol...
292
00:14:53,900 --> 00:14:55,480
Ik heb geen baan meer straks, et cetera.
293
00:14:55,480 --> 00:14:57,040
En ik heb geprobeerd te kijken...
294
00:14:57,040 --> 00:15:00,080
Hoe kan ik dat toegankelijker maken voor mensen?
295
00:15:00,080 --> 00:15:04,040
En op het moment dat je op hun rol gaat zitten...
296
00:15:04,040 --> 00:15:06,980
Ja, in mijn optiek onze rollen gaan veranderen.
297
00:15:06,980 --> 00:15:08,520
Het is gewoon een gegeven.
298
00:15:09,380 --> 00:15:10,540
Ja, hoe gaan die veranderen?
299
00:15:10,540 --> 00:15:11,700
Daar kan je zelf een rol...
300
00:15:11,700 --> 00:15:13,240
Daar kan je zelf sturing op gaan geven.
301
00:15:13,240 --> 00:15:15,200
Ja, ik vind het wel een hele mooie aanpak.
302
00:15:15,200 --> 00:15:17,400
Want het maakt het heel behapbaar voor mensen...
303
00:15:17,400 --> 00:15:18,860
Die wat minder van de technologie weten...
304
00:15:18,860 --> 00:15:19,920
Maar wel weten wat hun werk is.
305
00:15:19,920 --> 00:15:22,240
Wat er repeterend is.
306
00:15:22,240 --> 00:15:25,480
En zo kom je dus eigenlijk tot de requirements die nodig zijn.
307
00:15:25,480 --> 00:15:27,600
En een vraag die bij mij nog wel oppopt is...
308
00:15:27,600 --> 00:15:30,000
Uit al die activiteiten en procesbeschrijving...
309
00:15:30,000 --> 00:15:32,200
Waren er ook nog bepaalde zaken waar jullie zoiets hadden?
310
00:15:32,200 --> 00:15:32,760
Nee.
311
00:15:32,760 --> 00:15:35,060
Daar gaan we geen AI-collega voor maken.
312
00:15:35,060 --> 00:15:37,060
Daar gaan we iemand anders voor...
313
00:15:37,060 --> 00:15:39,600
En mensen voor in moeten schakelen?
314
00:15:39,600 --> 00:15:41,060
Nog niet.
315
00:15:41,060 --> 00:15:41,920
Oké.
316
00:15:41,920 --> 00:15:45,260
We hebben een focus op AI first.
317
00:15:45,260 --> 00:15:49,660
Dus laten we proberen alles wat we doen...
318
00:15:49,660 --> 00:15:50,440
Met AI te doen.
319
00:15:50,440 --> 00:15:53,900
En in praktijk kom je dan op een heel aantal gebieden...
320
00:15:53,900 --> 00:15:55,700
Waar het gewoon nog niet geschikt genoeg voor is.
321
00:15:55,700 --> 00:15:59,320
Of waar het gedeeltelijk al goed kan worden ingezet.
322
00:15:59,700 --> 00:16:02,480
Maar we proberen daar grenzeloos nu nog in te denken.
323
00:16:02,480 --> 00:16:05,040
Ja, vandaar ook die AI-assistenten...
324
00:16:05,040 --> 00:16:07,820
Die jullie dan intern gebruiken voor dat soort activiteiten dan.
325
00:16:07,820 --> 00:16:08,180
Ja.
326
00:16:08,180 --> 00:16:08,920
Oké.
327
00:16:08,920 --> 00:16:14,080
Dat zien we gewoon meer als een hele goede brainstorm-assistent...
328
00:16:14,080 --> 00:16:16,980
Die we op die manier inzetten.
329
00:16:16,980 --> 00:16:19,620
En wat jij zei toen straks mooi...
330
00:16:19,620 --> 00:16:21,600
De impact op taken.
331
00:16:22,980 --> 00:16:25,600
Dat kan ook wel een van de triggers geweest zijn qua momenten.
332
00:16:25,600 --> 00:16:30,880
We hebben een implementatieprogramma voor AI in marketing teams.
333
00:16:30,880 --> 00:16:34,880
Het maken van een stuurgroep in je organisatie.
334
00:16:34,880 --> 00:16:36,140
Het maken van een AI-beleid.
335
00:16:36,140 --> 00:16:37,980
Training en educatie.
336
00:16:37,980 --> 00:16:39,740
Maar ook een AI-impact scan.
337
00:16:40,520 --> 00:16:45,780
Waarbij je eigenlijk iedere functie, rol en taak...
338
00:16:45,780 --> 00:16:48,280
Uitgebreid gaat beschrijven waar die nou uit bestaat.
339
00:16:48,280 --> 00:16:50,140
En de impact gaat hebben van...
340
00:16:50,140 --> 00:16:57,060
Oké, op welk taakniveau kan een AI nu al dingen voor je makkelijker maken.
341
00:16:57,060 --> 00:16:59,060
En kan je al inzetten.
342
00:16:59,060 --> 00:17:02,800
Zodat je ook vanuit zo'n impact scan een keuze kan maken.
343
00:17:02,800 --> 00:17:04,140
Je hebt natuurlijk ongelooflijk veel tools.
344
00:17:04,140 --> 00:17:07,260
Wat je net zei inderdaad, zie ik ook heel veel...
345
00:17:07,260 --> 00:17:09,260
Het begint vaak met een toolgesprek.
346
00:17:09,260 --> 00:17:10,840
Ik heb die tool gezien.
347
00:17:10,840 --> 00:17:11,500
Fantastisch.
348
00:17:11,500 --> 00:17:12,220
Oké, leuk.
349
00:17:12,220 --> 00:17:13,380
Maar welk...
350
00:17:13,380 --> 00:17:15,700
Je kan duizenden tools kiezen.
351
00:17:15,700 --> 00:17:17,260
Begin even met...
352
00:17:17,260 --> 00:17:20,640
Wat is überhaupt je AI-visie als organisatie?
353
00:17:20,640 --> 00:17:22,500
En waar heeft AI de grootste impact?
354
00:17:22,500 --> 00:17:24,560
Op korte termijn en op langere termijn?
355
00:17:24,560 --> 00:17:26,980
En dat maakt het ook mooi dat je zegt...
356
00:17:26,980 --> 00:17:29,260
We hadden natuurlijk al profielen...
357
00:17:29,260 --> 00:17:33,620
Van wat een AI-specialist zo direct moet kunnen.
358
00:17:33,620 --> 00:17:35,860
En dan is het denk ik ook veel makkelijker...
359
00:17:35,860 --> 00:17:38,640
Om de combinatie te maken naar een tool bijvoorbeeld.
360
00:17:39,080 --> 00:17:39,560
Ja, zeker.
361
00:17:39,560 --> 00:17:42,820
Dus voor ons is vertrekpunt...
362
00:17:42,820 --> 00:17:45,440
Wat kan een AI gaan doen?
363
00:17:45,440 --> 00:17:46,380
En wat is dat profiel?
364
00:17:46,380 --> 00:17:51,340
En hebben we daar één of meerdere AI-tools voor nodig...
365
00:17:51,340 --> 00:17:55,980
Die we ook in het uitvoeren van die taak nodig hebben.
366
00:17:55,980 --> 00:17:59,020
Dus in sommige AI-collega's hebben we bijvoorbeeld...
367
00:17:59,020 --> 00:18:01,760
ChatGPT en Claude die we combineren in de workflow...
368
00:18:01,760 --> 00:18:03,880
Om tot een goed resultaat te komen.
369
00:18:03,880 --> 00:18:06,500
Dat we zien dat Claude in onze optiek...
370
00:18:06,500 --> 00:18:08,760
Textueel net wat natuurlijker...
371
00:18:08,760 --> 00:18:12,020
Text output geeft dan het ChatGPT.
372
00:18:12,020 --> 00:18:14,560
Maar ChatGPT kan prima als een startpunt gebruiken.
373
00:18:14,560 --> 00:18:16,580
Zo hebben we natuurlijk een legio tools...
374
00:18:16,580 --> 00:18:19,920
Die we voor verschillende uitwerkingen het beste kunnen inzetten.
375
00:18:19,920 --> 00:18:20,380
Ja, mooi.
376
00:18:20,380 --> 00:18:22,260
En we proberen het voor onze klanten simpel te maken.
377
00:18:22,260 --> 00:18:24,400
Om niet in die tool discussie te komen.
378
00:18:24,400 --> 00:18:24,940
Te zeggen, oké...
379
00:18:24,940 --> 00:18:26,400
Jij gebruikt Slack.
380
00:18:26,400 --> 00:18:26,880
Nou, top.
381
00:18:26,880 --> 00:18:28,260
De interface is Slack.
382
00:18:28,260 --> 00:18:29,520
En wat erachter allemaal gebeurt...
383
00:18:29,520 --> 00:18:30,920
Is voor jou eigenlijk niet zo belangrijk.
384
00:18:30,920 --> 00:18:32,100
Maak het simpel.
385
00:18:32,100 --> 00:18:32,740
Mooi.
386
00:18:32,740 --> 00:18:33,800
Is er iets...
387
00:18:33,800 --> 00:18:36,120
Omdat je nu die collega's geïntroduceerd hebt...
388
00:18:36,120 --> 00:18:37,800
Is er iets in je werkwijze...
389
00:18:37,800 --> 00:18:39,840
Echt significant veranderd?
390
00:18:39,840 --> 00:18:42,780
Doen medewerkers iets anders nu?
391
00:18:42,780 --> 00:18:44,300
Ja, totaal.
392
00:18:44,300 --> 00:18:45,500
Totaal veranderd.
393
00:18:45,500 --> 00:18:47,060
Zou je daar een voorbeeld van kunnen geven?
394
00:18:47,060 --> 00:18:52,880
In wat ze eerder niet deden en nu wel bedoel je?
395
00:18:52,880 --> 00:18:54,840
Of gewoon een andere werkwijze?
396
00:18:54,840 --> 00:18:54,940
Ja.
397
00:18:54,940 --> 00:18:57,740
Weet je...
398
00:18:57,740 --> 00:19:02,640
Heb je geschaald in dat je meer werk kan leveren?
399
00:19:02,640 --> 00:19:04,660
Of zijn mensen echt anders gaan werken...
400
00:19:04,660 --> 00:19:06,180
Omdat ze AI-collega's hebben?
401
00:19:06,180 --> 00:19:08,660
Daar ben ik eigenlijk wel benieuwd naar.
402
00:19:08,660 --> 00:19:13,180
Ja, dus veel werkzaamheden die eerst gedaan werden...
403
00:19:13,180 --> 00:19:15,040
En waar veel tijd in zat.
404
00:19:15,040 --> 00:19:17,100
Dat kost nu veel minder tijd.
405
00:19:17,100 --> 00:19:19,000
Niet op alle werkzaamheden nog.
406
00:19:19,000 --> 00:19:20,400
Maar een simpel voorbeeld.
407
00:19:20,400 --> 00:19:21,920
Het maken van een content planning.
408
00:19:21,920 --> 00:19:25,660
Die kan je heel snel en simpel zelf maken.
409
00:19:25,660 --> 00:19:28,820
Maar wil je rekening houden met allerlei verschillende key moments...
410
00:19:28,820 --> 00:19:30,520
En datapunten kost het gewoon heel veel tijd.
411
00:19:31,580 --> 00:19:34,780
Ja, dat is een werkzaamheid wat nu binnen no time gebeurt.
412
00:19:34,780 --> 00:19:37,800
Maar waar de verandering in het werk zit...
413
00:19:37,800 --> 00:19:40,440
Is dat we nu bezig zijn met AI-collega's aan het trainen.
414
00:19:40,440 --> 00:19:44,340
En zorgen dat die heel goed dat werk kunnen doen.
415
00:19:44,340 --> 00:19:46,100
En wat dan interessant in zo'n proces is...
416
00:19:46,100 --> 00:19:46,580
Dat je zegt...
417
00:19:46,580 --> 00:19:50,620
Ja, we hebben eigenlijk die data nodig.
418
00:19:50,620 --> 00:19:51,700
Of die uitwerking.
419
00:19:51,700 --> 00:19:53,240
Maar die hebben we eigenlijk nog niet.
420
00:19:53,240 --> 00:19:53,820
Oh ja.
421
00:19:53,980 --> 00:19:58,000
Dus we hebben ergens een gat in onze uitwerking gehad.
422
00:19:58,000 --> 00:19:59,380
Of dat hebben we überhaupt nog niet gemaakt.
423
00:19:59,380 --> 00:20:01,660
Dus daar moeten we meer aandacht aan besteden.
424
00:20:01,660 --> 00:20:03,040
In de uitwerking aan de voorkant.
425
00:20:03,040 --> 00:20:06,200
In bijvoorbeeld het uitwerken van een persona...
426
00:20:06,200 --> 00:20:08,160
In je content strategie.
427
00:20:08,160 --> 00:20:10,520
Nou, wellicht missen daar nog persona's.
428
00:20:10,520 --> 00:20:12,620
Of is hij een jaar niet geüpdate.
429
00:20:12,620 --> 00:20:13,700
En dan zeg ik...
430
00:20:13,700 --> 00:20:15,420
Oké, die moeten we eigenlijk weer even bijwerken.
431
00:20:15,420 --> 00:20:17,980
Want we moeten de AI-collega gaan trainen op...
432
00:20:17,980 --> 00:20:20,980
Dat publiek profiel, die persona...
433
00:20:20,980 --> 00:20:23,000
Die moeten we wel goed hebben.
434
00:20:23,000 --> 00:20:24,700
Ja, precies.
435
00:20:24,700 --> 00:20:28,060
Dus jij bent eigenlijk bezig met andere data.
436
00:20:28,060 --> 00:20:29,660
Andere data verzamelen.
437
00:20:29,660 --> 00:20:31,180
Rete bijwerken.
438
00:20:31,180 --> 00:20:36,160
In plaats van bezig zijn met het eindproduct maken.
439
00:20:36,160 --> 00:20:37,200
Zeg ik het zo goed?
440
00:20:37,200 --> 00:20:41,320
Ja, eigenlijk de eindproduct verbeteren en uitbreiden.
441
00:20:41,320 --> 00:20:45,380
Doordat we AI in dat eindproduct erbij zetten.
442
00:20:45,380 --> 00:20:46,980
Maar ook abstracter.
443
00:20:47,780 --> 00:20:49,520
Als ik het zo hoor, dan hoe ik het bij mij binnenkom.
444
00:20:49,520 --> 00:20:51,960
Dus ook abstracter kijken naar...
445
00:20:51,960 --> 00:20:53,260
In plaats van het uitvoeren.
446
00:20:53,260 --> 00:20:57,020
Het kijken naar wat is er nodig om de uitvoer beter te maken...
447
00:20:57,020 --> 00:20:58,200
Waar we nu geen tijd voor hadden.
448
00:20:58,200 --> 00:21:00,860
En dat verder te kunnen verbeteren.
449
00:21:00,860 --> 00:21:02,100
Ja, helemaal waar.
450
00:21:02,100 --> 00:21:05,780
En daar komt ook wel een mindset verandering in.
451
00:21:05,780 --> 00:21:07,320
Want dan moet je namelijk gaan nadenken.
452
00:21:07,320 --> 00:21:08,440
Wat doe ik nou eigenlijk?
453
00:21:08,440 --> 00:21:10,980
Ja, het is gewoon een metaniveautje hoger, zeg maar.
454
00:21:10,980 --> 00:21:14,580
Ja, waar bestaan mijn taken nu uit?
455
00:21:14,580 --> 00:21:17,240
En doe ik dat eigenlijk op de meest optimale manier?
456
00:21:17,360 --> 00:21:18,280
En je gaat veel meer nadenken.
457
00:21:18,280 --> 00:21:20,500
Nou, als ik meer tijd zou hebben...
458
00:21:20,500 --> 00:21:23,040
Dan zou ik eigenlijk nog dit en dat erbij gepakt zou hebben.
459
00:21:23,040 --> 00:21:25,380
En nu zeggen we, oké, dan is dat het startpunt.
460
00:21:25,380 --> 00:21:25,780
Ja.
461
00:21:25,780 --> 00:21:28,440
Daar gaat je werk in zitten.
462
00:21:28,440 --> 00:21:32,060
En we zorgen dat een AI een groot deel van je werkzaamheden doet...
463
00:21:32,060 --> 00:21:33,740
die je nu je tijd verslindt.
464
00:21:33,740 --> 00:21:35,020
Wat kan...
465
00:21:35,020 --> 00:21:35,320
Oh, sorry.
466
00:21:35,320 --> 00:21:37,380
Kan iedereen mee?
467
00:21:37,380 --> 00:21:39,520
Want eigenlijk zeg je van...
468
00:21:39,520 --> 00:21:42,500
Je bent je werk aan het veranderen van uitvoering.
469
00:21:42,500 --> 00:21:47,200
Maken van die contentkalender naar eigenlijk iemand trainen...
470
00:21:47,200 --> 00:21:49,300
Om een contentkalender te maken.
471
00:21:49,300 --> 00:21:49,680
Ja.
472
00:21:49,680 --> 00:21:51,840
Dat vergt misschien andere vaardigheden.
473
00:21:51,840 --> 00:21:53,640
Was dat moeilijk?
474
00:21:53,640 --> 00:21:55,400
Ondervond je weerstand?
475
00:21:57,480 --> 00:21:58,680
Ik ondervond...
476
00:21:58,680 --> 00:22:05,600
In het eerste drie kwart jaar, denk ik, dat ik met name veel de...
477
00:22:05,600 --> 00:22:08,280
Het voortouw probeerde te nemen in de organisatie.
478
00:22:08,280 --> 00:22:09,240
En er veel over sprak.
479
00:22:09,240 --> 00:22:12,760
Merkte ik de aansluiting nog weinig vanuit het team.
480
00:22:13,000 --> 00:22:14,420
Dus ik zat heel erg van...
481
00:22:14,420 --> 00:22:17,400
Wanneer komen ze nou uit zichzelf in de lucht om...
482
00:22:17,400 --> 00:22:18,860
Hé, dit kunnen we met AI of dat kunnen.
483
00:22:18,860 --> 00:22:20,540
Dat bleef een beetje achterwege.
484
00:22:20,540 --> 00:22:24,840
En daar kwam het idee ook bij.
485
00:22:24,840 --> 00:22:27,140
Als ik ze nu gewoon als vraag...
486
00:22:27,140 --> 00:22:30,000
Je kan tien mensen aannemen of tien collega's aannemen.
487
00:22:30,000 --> 00:22:31,500
Hoe zou dat eruit zien?
488
00:22:31,500 --> 00:22:35,140
En dat vertrekpunt heeft eigenlijk de boel heel erg versneld in het team.
489
00:22:35,140 --> 00:22:38,180
Want daardoor ging het heel erg bij hen leven.
490
00:22:38,180 --> 00:22:40,880
Gingen ze nadenken over hun eigen rol.
491
00:22:40,880 --> 00:22:42,120
Waar ze naartoe wilden.
492
00:22:42,280 --> 00:22:45,920
En welke onderdelen ze minder interessant eigenlijk in hun werk vonden.
493
00:22:45,920 --> 00:22:47,920
En die ze heel graag vervangen zouden zien met AI.
494
00:22:47,920 --> 00:22:51,440
En daar is een hele andere shift in de organisatie gekomen.
495
00:22:51,440 --> 00:22:52,980
Want het staat op papier.
496
00:22:52,980 --> 00:22:54,180
Iedereen heeft erover nagedacht.
497
00:22:54,180 --> 00:22:54,980
Het is uitgewerkt.
498
00:22:54,980 --> 00:22:58,820
Er is een planning over welke AI-collega's we in tijd gaan introduceren.
499
00:22:58,820 --> 00:23:00,200
Daar worden ze mee in betrokken.
500
00:23:00,200 --> 00:23:06,100
Dus voor ons was dat wel echt het grote switchpunt in de organisatie.
501
00:23:06,100 --> 00:23:06,500
Goed.
502
00:23:06,500 --> 00:23:11,900
We hebben ook een vraag binnengekregen van in dit geval een hele jonge luisteraar.
503
00:23:12,060 --> 00:23:14,640
En die sluit denk ik best wel heel mooi aan.
504
00:23:14,640 --> 00:23:17,380
Dus die wil ik je eigenlijk eventjes voorleggen.
505
00:23:17,380 --> 00:23:18,000
Oké, spannend.
506
00:23:18,000 --> 00:23:23,720
Sterker nog, dan moet ik wel het juiste schuifje over doen.
507
00:23:23,720 --> 00:23:25,960
Ik had schuifjes open, maar dat was niet de goede.
508
00:23:27,700 --> 00:23:30,220
De vraag van de leek is deze week.
509
00:23:30,220 --> 00:23:33,520
Hallo, ik ben Sam, een jongen van 10 jaar oud.
510
00:23:33,520 --> 00:23:35,580
En ik zit nog op de basisschool.
511
00:23:35,580 --> 00:23:38,160
En ik had een vraag voor deze podcast.
512
00:23:38,160 --> 00:23:40,200
Maakt AI ons lui?
513
00:23:40,200 --> 00:23:43,520
En kunnen we ons daar in de toekomst tegen weren?
514
00:23:45,580 --> 00:23:47,060
Zo, dat is een slimme vraag.
515
00:23:47,060 --> 00:23:49,540
Ja, ik hoorde hem ook vanochtend.
516
00:23:49,540 --> 00:23:50,740
En toen dacht ik ook, wauw.
517
00:23:50,740 --> 00:23:52,480
Gave vraag.
518
00:23:52,480 --> 00:23:57,300
Ik denk niet dat AI lui maakt.
519
00:23:59,160 --> 00:24:04,100
Ik denk wel dat we heel zorgvuldig moeten omgaan met hoe je AI gaat gebruiken.
520
00:24:04,100 --> 00:24:07,260
Dit is een mooie jonge luisteraar op schoolniveau.
521
00:24:08,620 --> 00:24:12,380
Een aantal weken geleden had ik een ouderavond.
522
00:24:12,380 --> 00:24:18,260
Toen ging ik naartoe van, ik ben heel benieuwd hoe vaak het woord AI langskomt en hoe de school daarnaar kijkt.
523
00:24:18,260 --> 00:24:22,960
En na drie kwartier luisteren werd de vraag gesteld, heeft nog een ouder een vraag?
524
00:24:22,960 --> 00:24:24,460
Ik zou, ja, ik heb een vraag.
525
00:24:24,460 --> 00:24:27,660
Hoe ziet jullie AI visie en beleid eruit?
526
00:24:27,660 --> 00:24:30,560
Want ik heb het woord AI nul keer gehoord.
527
00:24:30,560 --> 00:24:37,860
En toen verwezen ze me heel vriendelijk door naar degene die de teamleider van de verschillende HAVO klassen in dit geval was.
528
00:24:37,860 --> 00:24:40,760
Want ze hadden eigenlijk zelf ook het antwoord niet.
529
00:24:40,760 --> 00:24:43,580
Iedereen deed niks of iets ermee.
530
00:24:43,580 --> 00:24:46,780
Toen heb ik dezelfde vraag aan gesteld.
531
00:24:46,780 --> 00:24:54,380
En die begonnen eigenlijk gelijk in een soort weerstand van, ja, we letten veel op dat ze het niet gebruiken om plagiaat te plegen.
532
00:24:54,380 --> 00:24:57,660
Ik zei, stop, het is niet de discussie die we moeten hebben.
533
00:24:57,660 --> 00:25:06,860
Ik zei, hebben jullie er ook al nagedacht hoe je de kinderen kan helpen met hoe ze AI gaan inzetten voor bijvoorbeeld het helpen van hun huiswerkplanning?
534
00:25:07,580 --> 00:25:12,400
Voor het voorbereiden van toetsen, hoe je dingen kan samenvatten, et cetera.
535
00:25:12,400 --> 00:25:14,360
Oh, oh, oh, kan dat allemaal met AI?
536
00:25:14,360 --> 00:25:16,100
Ja, dat kan allemaal met AI.
537
00:25:16,100 --> 00:25:22,460
Dus op het moment dat we de kinderen meenemen in hoe ze het op een goede manier kunnen gebruiken.
538
00:25:22,460 --> 00:25:26,440
En zelf ook sneller tot betere dingen kunnen komen.
539
00:25:26,440 --> 00:25:29,360
Ja, dat is echt nodig.
540
00:25:29,360 --> 00:25:31,440
En dan worden ze niet lui.
541
00:25:31,440 --> 00:25:31,780
Nee.
542
00:25:31,780 --> 00:25:33,740
Op het moment dat we ze...
543
00:25:33,740 --> 00:25:41,020
En diezelfde discussie gaat denk ik voor, wat we natuurlijk in de opkomst van Facebook en Instagram en TikTok veel in bedrijven hebben gezien.
544
00:25:41,480 --> 00:25:46,040
Nou, laten we die stagiair of die jonkie, laten we die maar dat een beetje uitvinden.
545
00:25:46,300 --> 00:25:51,860
Ja, dat zie ik wel echt falikant misgaan in deze tijdstippen als we dat met AI ook doen.
546
00:25:51,860 --> 00:25:57,740
Sterker nog, ik zie AI het meest geschikt voor mensen met veel expertise en ervaring.
547
00:25:57,740 --> 00:25:59,960
Die kunnen namelijk de juiste vragen stellen.
548
00:25:59,960 --> 00:26:01,620
Die kunnen op de juiste manier trainen.
549
00:26:02,020 --> 00:26:07,800
En die kunnen de output die AI geeft op een juiste manier beoordelen en doorvragen om het beter te maken.
550
00:26:07,800 --> 00:26:15,620
Iemand die dat expertise en ervaring niet heeft, die gaat ervan uit dat de output die AI geeft de waarheid is.
551
00:26:15,620 --> 00:26:19,520
En dan word je wel lui op het moment dat je het op die manier gebruikt.
552
00:26:19,520 --> 00:26:21,440
Ja, dat vind ik een mooie.
553
00:26:21,440 --> 00:26:27,920
En als je dat nou ook kijkt naar de medewerkers die nu met jouw AI-medewerkers werken.
554
00:26:27,920 --> 00:26:30,480
Hoe zou je dat dan karakteriseren?
555
00:26:30,680 --> 00:26:36,380
Zijn die luier geworden in de uitbesteding van dat werk wat ze gedaan hebben?
556
00:26:36,380 --> 00:26:39,160
Of zie je daar juist iets heel anders in?
557
00:26:39,160 --> 00:26:42,100
De kwaliteit gaat omhoog.
558
00:26:42,100 --> 00:26:47,500
Omdat ze meer tijd hebben om de fine-tuning van de output van een AI beter te maken.
559
00:26:47,500 --> 00:26:53,020
Dus zij zitten veel minder op dat eerste 80% van de werkzaamheden.
560
00:26:53,020 --> 00:26:57,380
Maar kunnen meer besteden aan de 20% om dat veel beter te krijgen.
561
00:26:57,380 --> 00:26:58,000
Ja, mooi.
562
00:26:59,340 --> 00:27:01,140
Lijkt me een hele goede...
563
00:27:01,140 --> 00:27:01,500
Toch?
564
00:27:01,500 --> 00:27:01,960
Ja.
565
00:27:01,960 --> 00:27:03,120
Nee, ik ben nog niet naar huis.
566
00:27:03,120 --> 00:27:03,700
Ja.
567
00:27:03,700 --> 00:27:06,040
Nou, ik zit nog steeds helemaal van...
568
00:27:06,040 --> 00:27:12,040
Ik ben er bijna een beetje om in de zin van dat niet vermenselijken.
569
00:27:12,040 --> 00:27:12,920
Omdat je...
570
00:27:12,920 --> 00:27:17,820
Je hebt zo'n goed uitgangspunt genomen van eigenlijk het opstellen van een profiel.
571
00:27:19,820 --> 00:27:30,440
Wat maakt het in principe uit of zo direct een AI het voor je uitvoert of dat je inderdaad iemand zou hebben aangenomen die je dan ook voor je uitvoert.
572
00:27:30,440 --> 00:27:33,000
Want uiteindelijk besteed je dan ook werk uit.
573
00:27:33,560 --> 00:27:41,680
En het werk wat je terugkijkt, krijgt, beoordelen je uiteindelijk ook op kwaliteit en op output en of dat voldoende is.
574
00:27:41,680 --> 00:27:44,360
Alleen zet je daar nu technologieën voor in.
575
00:27:44,360 --> 00:27:59,720
Ik sluit ook niet uit dat we in de nabije toekomst, dat je gewoon een ZGPT bijvoorbeeld of een andere tool waar je nu gewoon een fixed fee per maand voor betaalt, dat je die gaat betalen op de taak die uitgevoerd wordt.
576
00:27:59,720 --> 00:28:05,840
Op het moment dat die AI agents komen die echt dagen of weken lang een bepaalde opdracht kunnen uitvoeren.
577
00:28:06,580 --> 00:28:09,740
Dat op basis van die opdracht, dat daar een waarde aan gegeven gaat worden.
578
00:28:09,740 --> 00:28:13,200
Dus output gebaseerd werken van de AI.
579
00:28:13,200 --> 00:28:18,160
Ja, wat ik ook wel mooi vind is wel de benadering niet als de systeem, als de alwetende mens.
580
00:28:18,160 --> 00:28:20,100
Want dat is hoe we het vaak zien, de alwetende.
581
00:28:20,100 --> 00:28:22,380
Maar vooral, je hebt gewoon specialisten.
582
00:28:22,380 --> 00:28:25,720
En dat is dan de vermenselijking van de rol en de persoon.
583
00:28:25,720 --> 00:28:29,520
En voor die werkzaamheden werkt deze technologie goed.
584
00:28:29,520 --> 00:28:35,160
En ik denk dat dat wel een belangrijk onderscheid is van het alwetende systeem die alle antwoorden kan geven naar specialisme.
585
00:28:35,340 --> 00:28:36,920
Ik denk dat dat wel een belangrijke nuance is.
586
00:28:36,920 --> 00:28:40,100
Ja, ik denk het ook.
587
00:28:40,100 --> 00:28:46,260
En er wordt ook natuurlijk, kijk als we het over AI hebben, hebben we het vaak ook over ethische aspecten.
588
00:28:46,260 --> 00:28:56,380
Heeft dat, zeg maar welke ethische afwegingen hebben bij jullie een rol gespeeld in de inzet van dit soort AI agents?
589
00:28:56,380 --> 00:29:01,080
De mens belangrijk houden.
590
00:29:03,660 --> 00:29:08,240
Goed kijken naar de rolverschuiving van mensen.
591
00:29:08,240 --> 00:29:12,240
Niemand weet het, hoe dat precies eruit gaat zien de komende jaren.
592
00:29:12,240 --> 00:29:15,980
We weten wel dat het snel gaat en dat er verandering zit.
593
00:29:15,980 --> 00:29:17,540
Dus ik zit heel erg op die menskant.
594
00:29:19,400 --> 00:29:25,880
Op dit moment en voorlopig zal de mens ook zeker nog een belangrijke rol in samen met AI hebben.
595
00:29:25,880 --> 00:29:32,820
Dus ik zie het echt als gewoon een soort, je gaat naar een hybride samenwerking toe tussen mensen en AI.
596
00:29:32,820 --> 00:29:40,840
En die verschuift in tijd waarbij AI beter in staat is om meer dingen van mensen te doen die we nu doen.
597
00:29:40,840 --> 00:29:44,540
Waarbij de mens verschuift naar dingen die we nu niet doen.
598
00:29:44,960 --> 00:29:55,400
En denk je ook dat we als mens misschien ook onze werkzaamheden en communicatie gaan aanpassen aan de machine?
599
00:29:55,400 --> 00:29:57,040
Het is in plaats van andersom.
600
00:29:57,040 --> 00:30:02,000
Dus we hebben nu technologie die best wel heel menselijk communiceert.
601
00:30:02,000 --> 00:30:06,240
Denk je dat wij misschien ook een klein beetje gaan opschuiven naar die machine toe?
602
00:30:07,860 --> 00:30:08,980
Kan je een voorbeeld geven?
603
00:30:08,980 --> 00:30:12,200
Ja.
604
00:30:12,200 --> 00:30:20,440
Wat ik zelf merk bijvoorbeeld, is dat als ik met een spraakassistent praat.
605
00:30:20,440 --> 00:30:21,800
Bijvoorbeeld met mijn telefoon.
606
00:30:21,800 --> 00:30:25,740
Daar praat ik anders mee dan tegen mijn partner.
607
00:30:25,740 --> 00:30:31,940
En laat ik zeggen, tegen mijn partner praat ik in meer vol zinnen en aardiger.
608
00:30:31,940 --> 00:30:33,500
Het is mijn vrouw.
609
00:30:33,500 --> 00:30:36,660
Mijn vrouw krijgt niet de opdrachten zoals mijn spraakassistent.
610
00:30:36,920 --> 00:30:37,880
Zet de wekker.
611
00:30:37,880 --> 00:30:39,440
En dat soort...
612
00:30:39,440 --> 00:30:42,620
Je kapte waarschijnlijk ook niet halverwege de zin af als je bij de verkeerd gaat.
613
00:30:42,620 --> 00:30:43,120
Ja, precies.
614
00:30:43,120 --> 00:30:44,300
Hoop ik.
615
00:30:44,300 --> 00:30:46,040
Dus je krijgt...
616
00:30:46,040 --> 00:30:48,560
Het gekke is, weet je, omdat we gaan daartegen praten.
617
00:30:48,560 --> 00:30:49,500
We schrijven.
618
00:30:49,500 --> 00:30:51,380
Ik weet niet hoe het bij jou zit.
619
00:30:51,380 --> 00:30:59,800
Maar ik schrijf best wel heel zakelijk kort in bullet points eigenlijk tegen een ChatGPT of een Claude.
620
00:30:59,800 --> 00:31:05,800
Dus ik verschuif zeg maar naar hoe ik denk.
621
00:31:05,980 --> 00:31:10,880
Dat het model werkt en hoe die reageert.
622
00:31:11,680 --> 00:31:13,600
Dus dat verandert wat in mijn communicatie.
623
00:31:13,600 --> 00:31:13,940
Ja.
624
00:31:13,940 --> 00:31:17,380
Is dat een beetje een voorbeeld?
625
00:31:17,380 --> 00:31:21,080
Met deze uitleg denk ik...
626
00:31:21,080 --> 00:31:23,980
Ja.
627
00:31:23,980 --> 00:31:27,760
Maar eigenlijk komt dat terug op het samenwerken met AI.
628
00:31:27,760 --> 00:31:29,960
Dus je hebt verschillende AI-collega's.
629
00:31:29,960 --> 00:31:31,920
Daar werk je net zoals normale mensen.
630
00:31:31,920 --> 00:31:36,520
Op verschillende manieren werk je daar het beste mee samen om de beste resultaten te krijgen.
631
00:31:37,140 --> 00:31:44,160
Maar ja, we zullen zeker veranderen in ons gedrag richting AI toe.
632
00:31:44,160 --> 00:31:45,740
En dat zie je eigenlijk nu al gebeuren.
633
00:31:45,740 --> 00:31:50,900
Twee jaar geleden kijken, dan was AI een soort schande nog.
634
00:31:50,900 --> 00:31:53,060
Je schrijft toch geen dingen met AI.
635
00:31:53,060 --> 00:31:53,660
Belachelijk.
636
00:31:53,660 --> 00:31:55,080
Dat gaat niemand doen.
637
00:31:55,840 --> 00:31:57,960
Maar het levert nog best wel een beetje.
638
00:31:57,960 --> 00:32:00,160
Dat het als een soort van...
639
00:32:00,160 --> 00:32:03,200
Ik denk zeker in de marketing en mensen die gewend zijn om te schrijven.
640
00:32:03,200 --> 00:32:08,140
Dat het nog best wel redelijk vaak aangemerkt wordt als een soort van valsspelen.
641
00:32:09,380 --> 00:32:14,080
Ja, met name door de auteurs die het vak schrijven hebben.
642
00:32:14,080 --> 00:32:16,460
Daar hoor je dat meer.
643
00:32:16,460 --> 00:32:18,800
Alhoewel die ook nu wel vaak zeggen...
644
00:32:18,800 --> 00:32:20,640
Ja, mijn writer's blog heb ik niet meer.
645
00:32:20,640 --> 00:32:25,840
Het is heel fijn om toch een eerste aanzet te krijgen van een AI collega.
646
00:32:25,840 --> 00:32:28,800
Of een AI die daar een eerste opzetje kan doen.
647
00:32:28,800 --> 00:32:30,280
Maar als je bijvoorbeeld...
648
00:32:30,280 --> 00:32:36,300
Als je breed kijkt naar afbeeldingen, video en tekst.
649
00:32:36,300 --> 00:32:36,960
Even die drie.
650
00:32:38,760 --> 00:32:40,920
Je ziet steeds meer visuals voorbij komen.
651
00:32:40,920 --> 00:32:42,180
Steeds meer video's voorbij komen.
652
00:32:42,180 --> 00:32:45,300
En in het begin kijk je heel erg...
653
00:32:45,300 --> 00:32:45,880
Ah, dat is AI.
654
00:32:45,880 --> 00:32:46,700
Dat is nep.
655
00:32:46,700 --> 00:32:50,220
Hoe vaak zeg je nu nog dat je het lang ziet komen dat het nep is.
656
00:32:50,220 --> 00:32:51,260
Je zegt...
657
00:32:51,260 --> 00:32:52,840
Oké, ik zie dat het AI is.
658
00:32:52,840 --> 00:32:53,620
Maar vind ik het erg?
659
00:32:53,620 --> 00:32:55,040
Ik vind het eigenlijk wel prima.
660
00:32:55,040 --> 00:32:55,940
Het ziet er toch goed uit.
661
00:32:55,940 --> 00:33:00,700
Dus de adoptie van dat het met AI gebeurt...
662
00:33:00,700 --> 00:33:02,280
Wordt steeds kleiner.
663
00:33:02,280 --> 00:33:04,440
En straks kunnen we het helemaal niet meer zien.
664
00:33:04,440 --> 00:33:07,340
Je ziet nu al soms afbeeldingen en video's dat je denkt...
665
00:33:07,340 --> 00:33:08,680
Nou, ik moet wel echt heel goed kijken.
666
00:33:08,680 --> 00:33:09,840
Wil ik nog het verschil zien.
667
00:33:09,840 --> 00:33:10,140
Ja.
668
00:33:10,140 --> 00:33:12,100
En met teksten...
669
00:33:12,100 --> 00:33:15,940
Ja, de detectietools die zijn ook niet waterdicht.
670
00:33:15,940 --> 00:33:17,080
Nee, zeker niet.
671
00:33:17,080 --> 00:33:17,920
Dus dat verschil wordt steeds kleiner.
672
00:33:17,920 --> 00:33:18,580
Ja.
673
00:33:18,580 --> 00:33:20,900
En ja, het gaat ook om de inhoud.
674
00:33:20,900 --> 00:33:22,320
Dus daar gaan we dan misschien weer naar terug.
675
00:33:22,720 --> 00:33:23,240
Ja, eens.
676
00:33:23,240 --> 00:33:27,160
Ik denk, als je een goed stuk tekst kan maken met AI.
677
00:33:27,160 --> 00:33:28,560
En dat is gewoon een goed stuk tekst.
678
00:33:28,560 --> 00:33:31,120
Wat mensen fijn vinden om te lezen.
679
00:33:31,120 --> 00:33:32,300
Wat interessant is.
680
00:33:32,300 --> 00:33:36,600
Wat maakt het nou uit of het door iemand op een typemachine gedaan is.
681
00:33:36,600 --> 00:33:37,800
Of in Word geschreven is.
682
00:33:37,800 --> 00:33:40,020
Of dat een AI daar een rol heeft gespeeld.
683
00:33:40,020 --> 00:33:40,300
Ja.
684
00:33:40,300 --> 00:33:42,100
Nee, me eens.
685
00:33:42,100 --> 00:33:43,340
Wat ik wel heb.
686
00:33:44,940 --> 00:33:53,920
Niels deed net even zeg maar als een soort van grap van moet je een beoordelingsgesprek gaan hebben met je AI werknemer.
687
00:33:53,920 --> 00:33:56,840
Maar eigenlijk is het nog helemaal niet zo'n gekke vraag.
688
00:33:57,520 --> 00:34:01,560
Want het gaat er natuurlijk om van je krijgt een verschuiving zo direct.
689
00:34:01,560 --> 00:34:02,600
Jullie beginnen met data.
690
00:34:02,600 --> 00:34:04,160
Je hebt bepaalde taken.
691
00:34:04,160 --> 00:34:06,680
En dat kan natuurlijk door de tijd gaan veranderen.
692
00:34:06,680 --> 00:34:12,440
Dus hoe weet je zo direct dat de AI zeg maar bijgetraind moet gaan worden.
693
00:34:12,440 --> 00:34:14,660
Anders andere taken moet gaan krijgen.
694
00:34:14,660 --> 00:34:17,500
Ben je daar eigenlijk al tegen aangelopen?
695
00:34:17,500 --> 00:34:19,000
Nu nog niet.
696
00:34:19,000 --> 00:34:20,120
We zitten nog niet in die fase.
697
00:34:20,120 --> 00:34:20,520
Ja.
698
00:34:20,520 --> 00:34:22,140
Maar ik vind het een heel interessant punt.
699
00:34:22,140 --> 00:34:24,280
En het sluit eigenlijk wel goed aan op de impact scan.
700
00:34:24,280 --> 00:34:31,580
Oké, dus je hebt in die impact scan maken we een analyse van de verschillende taken die er zijn die door AI overgenomen kan worden.
701
00:34:31,580 --> 00:34:38,620
En eigenlijk het beoordelingsstuk daarvan in verschillende periodes is een hele goede om toe te voegen.
702
00:34:38,620 --> 00:34:41,680
Zeggen oké, voldoet dat doen.
703
00:34:41,680 --> 00:34:47,760
En dan kan je het naar de personalisatie, de verpersonalisering maken.
704
00:34:47,760 --> 00:34:50,720
We maken er een soort POP-achtig gesprek van.
705
00:34:51,560 --> 00:35:00,680
Je moet in ieder geval weten wanneer data, functies en de tools niet meer op elkaar aansluiten.
706
00:35:00,680 --> 00:35:06,160
De AI is niet, die heb je eenmaal getraind en die kan het nu voor vijf jaar.
707
00:35:06,160 --> 00:35:09,160
Doet die precies wat je nu gevraagd hebt?
708
00:35:09,160 --> 00:35:11,560
Nee, dat zien we nu in de praktijk nog helemaal niet eigenlijk.
709
00:35:11,560 --> 00:35:14,300
We zitten nu volop in de praktijk.
710
00:35:14,300 --> 00:35:18,280
We vinden zelf een goede versie 0.9, laten we maar zo zeggen.
711
00:35:18,280 --> 00:35:23,100
En wat het leuke dan in het team is ook wat je ziet.
712
00:35:23,100 --> 00:35:25,620
Iedereen wordt creatiever in hoe kan dit beter worden?
713
00:35:25,620 --> 00:35:28,540
Als we naar dat datapunt toevoegen of als we dat nog toevoegen.
714
00:35:28,540 --> 00:35:30,360
We hebben nog daar een best practice.
715
00:35:30,360 --> 00:35:32,360
Waar gaan we die vandaan halen?
716
00:35:32,360 --> 00:35:39,900
Dus je ziet eigenlijk op dit moment in ons team een continue focus van het verbeteren van de output van een AI-collega.
717
00:35:39,900 --> 00:35:40,360
Ja, mooi.
718
00:35:40,360 --> 00:35:44,940
Want je zei helemaal in het begin, je hebt er nu vijf.
719
00:35:44,940 --> 00:35:52,860
En er liggen wat ideeën, er liggen misschien wat stagiaires achter de schermen.
720
00:35:52,860 --> 00:36:01,200
Wat is voor jullie een criterium om te zeggen van, nu maken we er een volwaardige agent, een volwaardige collega van?
721
00:36:05,080 --> 00:36:10,560
Op het moment dat we het, en we gebruiken het zowel intern als extern.
722
00:36:10,560 --> 00:36:18,440
Met name als we het als onderdeel van de dienstverlening naar klanten kunnen aandragen.
723
00:36:18,440 --> 00:36:21,420
Omdat de interface ook heel belangrijk is eigenlijk.
724
00:36:21,420 --> 00:36:23,580
En dat is een belangrijk criterium.
725
00:36:23,580 --> 00:36:25,540
Dat we zeggen, het moet nu echt een AI-collega hebben.
726
00:36:25,540 --> 00:36:28,920
Je kan natuurlijk ook een maatwerk GPT maken.
727
00:36:28,920 --> 00:36:30,700
Of een project in Claude.
728
00:36:30,700 --> 00:36:32,240
Of een gem in Gemini.
729
00:36:32,240 --> 00:36:34,100
Gewoon een stukje maatwerk.
730
00:36:34,700 --> 00:36:37,120
assistent zeg maar te hebben.
731
00:36:37,120 --> 00:36:42,200
Dat is voor ons nog niet direct de eerste instap om te zeggen, oké, dat moet dan een AI-collega worden.
732
00:36:42,200 --> 00:36:47,060
Op het moment dat hij echt een vast omlijnde rol gaat uitvoeren.
733
00:36:47,060 --> 00:36:51,980
In een workflow van verschillende stappen.
734
00:36:51,980 --> 00:36:54,960
Waar we allerlei datapunten continu vernieuwd moeten hebben.
735
00:36:54,960 --> 00:36:56,960
Waar we een eenvoudige interface willen hebben.
736
00:36:56,960 --> 00:36:59,420
Waar we een onafhankelijkheid van de tool willen hebben.
737
00:36:59,420 --> 00:37:00,740
Aan de voorkant.
738
00:37:00,740 --> 00:37:02,700
Dat zijn criteria eigenlijk.
739
00:37:02,800 --> 00:37:04,660
Nu gaat het echt een AI-collega worden.
740
00:37:04,660 --> 00:37:08,320
Dus dan gaat hij van traineeship naar een volwaardige collega.
741
00:37:08,320 --> 00:37:09,940
Ja, van experiment.
742
00:37:09,940 --> 00:37:13,180
Ik denk eigenlijk van experiment naar serieuze rol.
743
00:37:13,180 --> 00:37:14,820
Vast in het proces.
744
00:37:14,820 --> 00:37:19,700
We hebben een kaartspel ontwikkeld met allerlei stellingen.
745
00:37:19,700 --> 00:37:23,360
Rondom vraagstukken die leven bij bedrijven.
746
00:37:24,020 --> 00:37:28,020
En we willen zo'n stelling ook bij jou voorleggen als dat mag.
747
00:37:28,020 --> 00:37:28,720
Ja, zeker.
748
00:37:31,280 --> 00:37:49,720
Ik heb hem zoals je gezien hebt geschud.
749
00:37:49,720 --> 00:37:50,460
Ja, ja.
750
00:37:50,460 --> 00:37:51,720
Deze is naar boven gekomen.
751
00:37:51,720 --> 00:37:55,180
Het valt in de categorie risico's en uitdagingen.
752
00:37:55,180 --> 00:38:00,660
En de stelling die we hebben is generatieve AI-systemen zijn vatbaar voor hacks.
753
00:38:00,660 --> 00:38:04,360
En kunnen grote veiligheidsrisico's vormen als ze niet goed worden beveiligd.
754
00:38:04,360 --> 00:38:05,760
Zeker.
755
00:38:05,760 --> 00:38:06,940
Helemaal eens.
756
00:38:07,840 --> 00:38:12,000
En het wordt alleen maar...
757
00:38:12,000 --> 00:38:15,980
In Europa zijn we nog redelijk strenge wetgeving.
758
00:38:15,980 --> 00:38:19,540
Dus we lopen eigenlijk in alle mogelijkheden zo'n beetje achter op de rest van de wereld.
759
00:38:19,540 --> 00:38:29,340
Het biedt ons wel een mate van meer veiligheid op in ieder geval de systemen die er zijn.
760
00:38:29,340 --> 00:38:35,160
Maar ja, het is heel vatbaar voor hacks.
761
00:38:35,160 --> 00:38:41,000
Ik denk een goed voorbeeld is SearchGPT van OpenAI, wat vorige week geïntroduceerd is.
762
00:38:41,000 --> 00:38:45,000
Hetzelfde als het SEO-tijdperk.
763
00:38:45,000 --> 00:38:55,740
Er gaan allerlei hackers komen die een beetje de trucjes gaan uitdokteren hoe ze de AI-optimalisatie voor dat soort chatbots kunnen realiseren.
764
00:38:55,740 --> 00:39:01,560
Waarbij je op het moment dat steeds meer mensen daarop gaan vertrouwen als dat is de juiste output.
765
00:39:01,560 --> 00:39:03,400
En ik klik niet meer door om te kijken naar de bron.
766
00:39:04,900 --> 00:39:08,240
Dan zit daar wel een groot risico.
767
00:39:08,240 --> 00:39:15,040
En natuurlijk het trainen van privacygevoelige data.
768
00:39:15,040 --> 00:39:19,480
Soms verbaasd hebben we nog dat er zo weinig om bekend is.
769
00:39:19,480 --> 00:39:23,820
En daarom is een van onze stappen training en educatie cruciaal in je organisatie.
770
00:39:25,620 --> 00:39:31,220
Laten we er maar vanuit gaan dat je collega's, dat iedereen gewoon AI gebruikt.
771
00:39:31,220 --> 00:39:32,620
Of privé of zakelijk.
772
00:39:32,620 --> 00:39:34,580
Of je het nou wel of niet weet.
773
00:39:34,580 --> 00:39:36,660
Ga er vanuit dat iedereen het doet.
774
00:39:36,660 --> 00:39:39,080
Als je niks met elkaar hebt afgesproken.
775
00:39:39,080 --> 00:39:40,720
Geen AI-beleid hebt.
776
00:39:40,720 --> 00:39:41,400
Niet intern.
777
00:39:41,400 --> 00:39:42,260
Hoe je het gebruikt.
778
00:39:42,260 --> 00:39:43,800
Hoe je het ook niet gebruikt.
779
00:39:43,800 --> 00:39:45,220
En hoe je het naar extern gebruikt.
780
00:39:45,220 --> 00:39:46,140
En hoe je het communiceert.
781
00:39:46,880 --> 00:39:51,680
En vervolgens echt goede training en educatie op individueel taakrolniveau gaat hebben.
782
00:39:51,680 --> 00:39:53,340
Dan doen mensen maar wat.
783
00:39:53,340 --> 00:39:57,160
En dan heb je dus ook het risico dat mensen waarvan jij misschien wel weet.
784
00:39:57,160 --> 00:39:58,100
Goh.
785
00:39:58,800 --> 00:40:02,760
De vrije versies van dat soort AI-tools.
786
00:40:02,760 --> 00:40:04,620
Die gebruiken je data om te trainen.
787
00:40:04,620 --> 00:40:07,080
Kan het zijn dat een collega dat niet weet.
788
00:40:07,080 --> 00:40:10,240
Die gewoon af en toe is een heel simpel vraagje.
789
00:40:10,240 --> 00:40:11,920
Die stelt bijvoorbeeld.
790
00:40:11,920 --> 00:40:12,680
En die denkt ineens.
791
00:40:12,680 --> 00:40:14,260
Oh, ik kan er ook een contract mee aan maken.
792
00:40:14,260 --> 00:40:14,840
Dat is handig.
793
00:40:14,840 --> 00:40:16,740
Ik kwam laatst iemand tegen.
794
00:40:16,740 --> 00:40:17,080
Die zei.
795
00:40:17,080 --> 00:40:18,560
Michiel, fantastisch.
796
00:40:18,560 --> 00:40:19,260
Moet je kijken.
797
00:40:19,260 --> 00:40:21,800
Ik heb deze hele overeenkomst gemaakt.
798
00:40:21,800 --> 00:40:22,740
Zo.
799
00:40:22,740 --> 00:40:23,160
Top.
800
00:40:23,160 --> 00:40:25,460
Welke informatie heb je als input gegeven dan?
801
00:40:25,460 --> 00:40:26,340
Nou ja.
802
00:40:26,340 --> 00:40:26,980
De bedragen.
803
00:40:26,980 --> 00:40:27,760
De lening.
804
00:40:28,000 --> 00:40:29,560
De bedrijfsgegevens.
805
00:40:29,560 --> 00:40:30,500
Alles en nog wat.
806
00:40:30,500 --> 00:40:32,040
Oké.
807
00:40:32,040 --> 00:40:34,660
En heb je dat in het open model gedaan dan?
808
00:40:34,660 --> 00:40:34,960
Ja.
809
00:40:34,960 --> 00:40:37,880
Weet je niet dat dat gebruik je voor trainingsdata?
810
00:40:37,880 --> 00:40:38,900
Oh shit.
811
00:40:38,900 --> 00:40:39,540
Ja.
812
00:40:39,540 --> 00:40:39,900
Ik zei.
813
00:40:39,900 --> 00:40:40,180
Ja.
814
00:40:40,180 --> 00:40:42,720
En dat was dan echt wel iemand dat ik dacht.
815
00:40:42,720 --> 00:40:44,320
Nou die weet dat.
816
00:40:44,320 --> 00:40:45,420
Daar ga je van uit.
817
00:40:45,420 --> 00:40:47,860
Maar ga dan even van uit dat mensen het niet weten.
818
00:40:47,860 --> 00:40:49,940
En ga echt goed trainen.
819
00:40:49,940 --> 00:40:51,560
Het is niet een word die je opent.
820
00:40:51,560 --> 00:40:57,440
En waar je allerlei functies hebt die je kan gebruiken.
821
00:40:57,760 --> 00:40:58,760
Het gaat veel verder.
822
00:40:58,760 --> 00:41:00,100
Het kan veel meer.
823
00:41:00,100 --> 00:41:03,100
En de data wordt op een hele andere manier gebruikt.
824
00:41:03,100 --> 00:41:05,060
Dus ja.
825
00:41:05,060 --> 00:41:06,260
Kwetsbaar voor hacks.
826
00:41:06,260 --> 00:41:06,900
Absoluut.
827
00:41:07,640 --> 00:41:12,180
Als je niet start met goede training en educatie op rol, taak, functieniveau.
828
00:41:12,180 --> 00:41:15,180
Dan sta je open voor enorme problemen in je organisatie.
829
00:41:15,180 --> 00:41:15,580
Ja.
830
00:41:15,580 --> 00:41:16,300
Helemaal mee eens.
831
00:41:16,300 --> 00:41:20,800
En dat is ook een van de redenen waarom wij dit kaartspel hebben ontwikkeld.
832
00:41:20,980 --> 00:41:23,520
Om dit soort stellingen eigenlijk met elkaar te bespreken.
833
00:41:23,520 --> 00:41:25,160
Om erachter te komen van.
834
00:41:25,160 --> 00:41:26,420
Weet je.
835
00:41:26,420 --> 00:41:28,120
Zijn we hier klaar voor?
836
00:41:28,120 --> 00:41:31,000
Welke acties zouden wij dan eigenlijk moeten uitvoeren?
837
00:41:31,000 --> 00:41:33,480
Denken we er allemaal hetzelfde over?
838
00:41:33,480 --> 00:41:36,060
Dus als je wil.
839
00:41:36,620 --> 00:41:40,460
Als luisteraar kan je dit kaartspel bij ons gratis bestellen.
840
00:41:40,460 --> 00:41:42,620
Wordt het gewoon bij je thuis bezorgd.
841
00:41:42,620 --> 00:41:43,200
Of op je werk.
842
00:41:43,200 --> 00:41:43,940
Net waar je wil.
843
00:41:43,940 --> 00:41:47,060
Linkje staat in de show notes.
844
00:41:47,060 --> 00:41:48,300
Dus in die zin.
845
00:41:49,000 --> 00:41:50,840
Ik heb nog één vraag aan je.
846
00:41:50,840 --> 00:41:51,360
Ja, natuurlijk.
847
00:41:51,360 --> 00:41:52,100
Op dit stuk.
848
00:41:52,100 --> 00:41:57,620
Als ik nu in de praktijk kijk naar de meeste bedrijven die ik spreek en zie.
849
00:41:57,620 --> 00:42:01,580
Durf ik te stellen dat vrijwel geen bedrijf echt klaar daarvoor is.
850
00:42:01,580 --> 00:42:03,360
Er is geen AI beleid.
851
00:42:03,360 --> 00:42:04,460
Er wordt amper getraind.
852
00:42:04,460 --> 00:42:06,940
Er worden geen impact scans gemaakt.
853
00:42:06,940 --> 00:42:10,760
Er is geen werkgroep tussen de verschillende afdelingen.
854
00:42:10,760 --> 00:42:13,940
Die AI visie en beleid in de organisatie doet.
855
00:42:13,940 --> 00:42:18,000
Dat is even mijn NS1 standpunt.
856
00:42:18,340 --> 00:42:19,380
Ik ben heel benieuwd.
857
00:42:19,380 --> 00:42:21,180
Jullie komen natuurlijk ook veel bedrijven tegen.
858
00:42:21,180 --> 00:42:21,600
Zeker.
859
00:42:21,600 --> 00:42:22,440
Delen jullie die mening?
860
00:42:22,440 --> 00:42:24,680
Zien jullie andere ontwikkelingen?
861
00:42:24,680 --> 00:42:28,400
Ja, het hangt een beetje van de bedrijven af.
862
00:42:28,400 --> 00:42:29,940
Maar wat je wel ziet.
863
00:42:29,940 --> 00:42:33,900
Is dat er is geen rode lijn of zo.
864
00:42:33,900 --> 00:42:36,720
Of een lijn te trekken in.
865
00:42:36,720 --> 00:42:39,940
Ja, maar enterprises hebben dit bijvoorbeeld wel voor elkaar.
866
00:42:39,940 --> 00:42:41,100
En MKB niet.
867
00:42:41,100 --> 00:42:42,920
Het hangt heel erg eigenlijk af.
868
00:42:42,920 --> 00:42:45,100
Ik zou haast zeggen.
869
00:42:45,100 --> 00:42:47,240
Het voorbeeld wat jij had met de school.
870
00:42:47,680 --> 00:42:56,000
Is er iemand in het bedrijf, in de organisatie, die zich daar wel of niet heel erg druk over maakt?
871
00:42:56,000 --> 00:42:57,520
En als je die wel hebt.
872
00:42:57,520 --> 00:43:00,540
En dat kan een privacy officer zijn.
873
00:43:00,540 --> 00:43:01,820
Dat kan het management zijn.
874
00:43:01,820 --> 00:43:03,040
Dat kan de directie zijn.
875
00:43:03,040 --> 00:43:04,380
Dat kunnen medewerkers zijn.
876
00:43:04,740 --> 00:43:05,860
Als je dat hebt, zeg maar.
877
00:43:05,860 --> 00:43:10,560
Is het een soort van kracht van binnenuit die ervoor zorgt dat het er wel komt.
878
00:43:10,560 --> 00:43:13,060
Als je die blijkbaar niet hebt.
879
00:43:13,060 --> 00:43:15,780
Dan krijg je de situatie waar jij beschrijft.
880
00:43:15,920 --> 00:43:19,240
Dan wordt er maar van alles en nog wat gedaan.
881
00:43:19,240 --> 00:43:24,240
Waarbij de makkelijkste is dat er een verbod wordt uitgevaardigd.
882
00:43:24,240 --> 00:43:27,720
Waarbij dan gedacht wordt dat mensen zich daar dan ook aan houden.
883
00:43:28,780 --> 00:43:36,060
Ja, maar dan nog steeds met één of meerdere mensen in je organisatie die er wel een soort van passie op hebben.
884
00:43:36,060 --> 00:43:38,160
Blijft het vaak in een experimentniveau.
885
00:43:38,880 --> 00:43:41,960
En als je niet met een beleid aan de gang gaat.
886
00:43:41,960 --> 00:43:42,960
Geen werkgroep hebt.
887
00:43:42,960 --> 00:43:45,380
Waarbij je het ook formaliseert.
888
00:43:45,380 --> 00:43:49,280
En daar ook gewoon vanuit een ondernemerschap de tijd voor maakt.
889
00:43:49,280 --> 00:43:51,480
Je moet je team.
890
00:43:51,480 --> 00:43:53,000
Je moet niks.
891
00:43:53,000 --> 00:43:55,420
Maar je moet wel.
892
00:43:55,420 --> 00:43:56,320
Je moet wel.
893
00:43:56,320 --> 00:44:00,100
Het slaagt in je organisatie.
894
00:44:00,100 --> 00:44:05,620
Op het moment dat je de ruimte en tijd gaat benoemen en geven aan mensen.
895
00:44:05,620 --> 00:44:07,100
Om hier ook echt tijd in te besteden.
896
00:44:07,100 --> 00:44:08,320
Aan research and development.
897
00:44:08,520 --> 00:44:09,580
Om een werkgroep op te zetten.
898
00:44:09,580 --> 00:44:12,440
Om werksessies met elkaar te hebben rondom AI.
899
00:44:12,440 --> 00:44:13,560
Om te experimenteren.
900
00:44:13,560 --> 00:44:14,880
Om echt te gaan implementeren.
901
00:44:14,880 --> 00:44:20,840
Wat mij opvalt is dat er echt organisaties zijn waarbij er nog geen management aandacht is voor dit onderwerp.
902
00:44:20,840 --> 00:44:22,660
Waarbij inderdaad gezegd wordt.
903
00:44:22,660 --> 00:44:26,660
Of ze laten dat werknemers gewoon uitzoeken.
904
00:44:26,660 --> 00:44:30,740
En dat is toch een beetje de tussen aanhalingstekens.
905
00:44:30,740 --> 00:44:33,700
Je belegt dat bij de stagiair of de beginner.
906
00:44:33,700 --> 00:44:37,840
Het is dat je als IT manager.
907
00:44:38,160 --> 00:44:39,660
Of als innovatie manager.
908
00:44:39,660 --> 00:44:41,140
Of directielid.
909
00:44:42,080 --> 00:44:45,520
nog zelfs niet eens geproefd hebt aan de technologie.
910
00:44:45,520 --> 00:44:46,380
Van wat kan het.
911
00:44:46,380 --> 00:44:47,120
Wat kan het niet.
912
00:44:47,120 --> 00:44:50,400
Je niet hebt laten informeren over kansen.
913
00:44:50,400 --> 00:44:51,440
Risico's.
914
00:44:51,440 --> 00:44:54,320
Hoe kun je dan besluiten nemen.
915
00:44:55,160 --> 00:44:58,240
die een positief impact hebben op je bedrijfsvoering.
916
00:44:58,240 --> 00:44:59,500
Dat begrijp ik regelmatig niet.
917
00:44:59,720 --> 00:45:00,640
Toch zie ik.
918
00:45:00,640 --> 00:45:03,200
Toch even vanuit mijn perspectief te beantwoorden.
919
00:45:03,200 --> 00:45:05,080
Ik zie wel de goede ontwikkelingen.
920
00:45:05,080 --> 00:45:06,600
Het wordt vaker gevraagd.
921
00:45:06,600 --> 00:45:09,180
Er is genoeg aandacht binnen organisaties.
922
00:45:09,180 --> 00:45:10,340
Dat er wel stappen gezet worden.
923
00:45:10,340 --> 00:45:11,940
Het verschilt heel erg per organisatie.
924
00:45:11,940 --> 00:45:12,820
En inderdaad.
925
00:45:12,820 --> 00:45:13,880
Dat is ook mijn observatie.
926
00:45:13,880 --> 00:45:16,280
Het is niet de enterprise of de kleine organisaties.
927
00:45:16,280 --> 00:45:17,080
Het is overal.
928
00:45:17,080 --> 00:45:19,200
Doen ze het wel half of niet.
929
00:45:19,800 --> 00:45:22,560
Maar ik zie wel steeds meer bedrijven hier echt goede stappen opzetten.
930
00:45:22,560 --> 00:45:24,180
Maar ja.
931
00:45:24,180 --> 00:45:25,020
Dat verschilt.
932
00:45:25,020 --> 00:45:26,160
Is dat wetgeving?
933
00:45:26,160 --> 00:45:27,020
Is de initiator?
934
00:45:27,020 --> 00:45:28,300
Zijn het de mensen met passie?
935
00:45:28,300 --> 00:45:32,240
Heb je toevallig iemand in het MT zitten die daar heel veel passie voor heeft?
936
00:45:32,240 --> 00:45:32,860
En op die manier.
937
00:45:32,860 --> 00:45:34,880
Eigenlijk maakt het me niet uit welke manier.
938
00:45:34,880 --> 00:45:37,300
Maar dat we elkaar erop moeten wijzen.
939
00:45:37,300 --> 00:45:38,760
Is denk ik het belangrijke punt.
940
00:45:38,760 --> 00:45:40,780
De urgentie mag denk ik wel omhoog.
941
00:45:40,780 --> 00:45:41,120
Ja.
942
00:45:41,120 --> 00:45:41,880
Dat denk ik ook.
943
00:45:41,880 --> 00:45:47,400
Als je nou onze luisteraars een tip zou mogen geven.
944
00:45:47,400 --> 00:45:48,460
Die zetten ze direct.
945
00:45:48,580 --> 00:45:51,060
Zetten zij deze podcast af.
946
00:45:51,060 --> 00:45:54,000
Wat zouden zij nou als eerste moeten doen.
947
00:45:54,000 --> 00:45:55,600
In jouw beleving.
948
00:45:55,600 --> 00:45:57,160
Om een stap verder te komen.
949
00:45:57,160 --> 00:46:00,940
In de toepassing van deze technologie.
950
00:46:00,940 --> 00:46:08,140
Goed hun eigen rol en taken gaan beschrijven.
951
00:46:08,140 --> 00:46:10,560
Wat doe je nu gewoon dagelijks?
952
00:46:10,560 --> 00:46:13,860
Welke taken ben je bij betrokken?
953
00:46:13,860 --> 00:46:16,140
En uit welke stappen bestaan die taken?
954
00:46:17,680 --> 00:46:18,740
Wat vind je?
955
00:46:18,740 --> 00:46:21,500
Wat is repeterend werk?
956
00:46:21,500 --> 00:46:23,660
Wat vind je wat minder leuk werk?
957
00:46:23,660 --> 00:46:28,500
En hoe zou jouw rol eruit zien als je een heel veel van dat soort dingen niet meer hoeft te doen?
958
00:46:28,500 --> 00:46:31,900
Maar waar een AI je bij kan helpen.
959
00:46:31,900 --> 00:46:33,040
Een AI collega.
960
00:46:33,040 --> 00:46:35,280
Hoe zou zo'n samenwerking dan uitzien?
961
00:46:35,280 --> 00:46:39,200
Dat als vertrekpunt gaan gebruiken om met AI aan de slag te gaan.
962
00:46:39,980 --> 00:46:40,280
Mooi.
963
00:46:40,280 --> 00:46:42,000
Ja, lekker praktisch inderdaad.
964
00:46:42,000 --> 00:46:47,160
En dan ook denk ik, bedoel je daarmee, er komt tijd vrij.
965
00:46:47,160 --> 00:46:51,040
Wat zijn taken die je misschien nu niet oppakt, die je dan zou oppakken waar je nu niet aan toe komt?
966
00:46:51,040 --> 00:46:53,260
Die misschien niet direct in je rol nu zitten.
967
00:46:53,500 --> 00:46:56,380
Ja, dus hij zit op twee assen.
968
00:46:56,380 --> 00:47:02,780
Aan de ene kant tijd vrij maken door repeterende zaken of andere dingen die je minder leuk vindt.
969
00:47:02,780 --> 00:47:05,700
Samen met een AI sneller en beter te kunnen doen.
970
00:47:05,700 --> 00:47:11,560
Maar ook echt zware focus op wat kan ik dan anders en beter en vernieuwend doen.
971
00:47:11,560 --> 00:47:14,140
Hoe kan ik veel innoverender bezig zijn?
972
00:47:15,640 --> 00:47:20,080
Doordat ik tijd vrij krijg en doordat wellicht AI daar ook een rol in kan spelen.
973
00:47:20,080 --> 00:47:22,600
Dus zowel effectiviteit als innovatie.
974
00:47:22,600 --> 00:47:27,580
Ik neem in ieder geval mee dat je eigenlijk ook begint bij het beschrijven van een profiel.
975
00:47:27,580 --> 00:47:33,380
Hoe zou iemand eruit moeten zien die een deel van je werk overneemt?
976
00:47:33,380 --> 00:47:33,940
Ja, goeie.
977
00:47:33,940 --> 00:47:37,580
En ik neem mee, we gaan dadelijk ook beoordelingsgesprekken hebben, versies.
978
00:47:37,580 --> 00:47:41,480
Hoe ga je verder? Gaat het nog goed met je? En wat moeten verbeteren?
979
00:47:41,480 --> 00:47:44,160
De pop voor AI. Geweldig.
980
00:47:44,160 --> 00:47:47,360
Nou, Michiel, ontzettend bedankt voor je inzichten.
981
00:47:47,360 --> 00:47:52,500
Ja, zeker. Misschien toch nog om af te sluiten.
982
00:47:52,500 --> 00:47:56,220
We hebben iedere keer geroepen, vermenselijk het niet, vermenselijk het niet.
983
00:47:56,220 --> 00:47:58,900
Jij hebt ons echt aan het denken gezet. Dank daarvoor.
984
00:47:58,900 --> 00:48:00,340
Dank je wel. Succes.
985
00:48:00,340 --> 00:48:07,120
Leuk dat je weer luisterde naar een aflevering van ENTD Live.
986
00:48:07,120 --> 00:48:11,360
Wil je nou op de hoogte blijven van alle nieuwe ontwikkelingen?
987
00:48:12,240 --> 00:48:14,980
Zorg dan dat je je abonneert via je favoriete podcast app.
988
00:48:14,980 --> 00:48:21,160
En als je ons zou willen helpen, zowel bij Apple als bij Spotify, kun je sterren uitdelen.
989
00:48:21,160 --> 00:48:25,460
En ja, dat helpt enorm.
990
00:48:25,460 --> 00:48:27,240
Plus, wij vinden dat erg leuk om te zien.
991
00:48:27,240 --> 00:48:30,020
Dus denk er eens even aan als je hem nu uitzet.
992
00:48:30,020 --> 00:48:30,660
Dankjewel.
993
00:48:30,660 --> 00:48:31,380
Dankjewel.
994
00:48:31,380 --> 00:48:34,520
[Muziek]
995
00:48:34,520 --> 00:48:35,520
[Muziek]