AIToday Live

S08E04 - Van frustrerende sollicitatie naar revolutionair AI-bedrijf

Aigency by Info Support Season 8 Episode 4

Rina Joosten, CEO bij Pera, deelt in deze podcast hoe AI-modellen menselijk gedrag kunnen voorspellen en personeelsbeleid verbeteren. Haar persoonlijke ervaring met een frustrerende sollicitatie vormde de basis voor haar innovatieve aanpak in recruitment. Pera gebruikt 'narrow AI' om patronen in hoogpresterende teams te herkennen en bias te verminderen. 

De technologie analyseert taalgebruik en gedragsobservaties om werkprestaties nauwkeuriger te voorspellen dan traditionele beoordelingsmethoden. Het doel is niet om recruiters te vervangen, maar om datagedreven beslissingen mogelijk te maken.

Onderwerpen

  • Voorspellen van menselijk gedrag met AI
  • Verbetering van personeelsbeleid door AI-technologie
  • Bias vermindering in recruitmentprocessen
  • Data-analyse en objectieve prestatie-indicatoren
  • Toepassingen van AI in verschillende sectoren

Links

Genoemde entiteiten: Pera - MIT

Stuur ons een bericht

Stem op AIToday Live voor de Nationale AI Awards 2025 – dat kan tot 12 januari via aimaze.nl/ai-awards-voting-2025

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:03,919
In deze aflevering hoor je Rina Joosten, CEO bij Pera,

2
00:00:03,919 --> 00:00:07,480
zij onthuld hoe hun AI-modellen menselijk gedrag voorspellen

3
00:00:07,480 --> 00:00:10,599
en zo succesvol personeelsbeleid mogelijk maken.

4
00:00:10,599 --> 00:00:13,119
Rina deelt haar persoonlijke ervaring met falende,

5
00:00:13,119 --> 00:00:16,920
traditionele solicitatieprocessen en legt uit hoe data gedreven

6
00:00:16,920 --> 00:00:20,600
technieken betere resultaten opleveren dan subjectieve beoordelingen.

7
00:00:22,840 --> 00:00:26,280
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

8
00:00:26,360 --> 00:00:27,960
Mijn naam Joop Snijder.

9
00:00:28,300 --> 00:00:30,940
Mijn naam Niels Naglé, en ik ben Area Lead Data & AI bij Info Support.

10
00:00:31,260 --> 00:00:33,500
En in de studio hebben we Rina Joosten.

11
00:00:33,739 --> 00:00:35,819
Rina, ontzettend bedankt dat je hier wilde komen.

12
00:00:35,979 --> 00:00:38,699
Zou je jezelf eerst willen voorstellen aan de luisteraars?

13
00:00:38,400 --> 00:00:40,320
Ja, mijn naam is Rina dus.

14
00:00:41,280 --> 00:00:45,680
Ik werk in het dagelijks leven, ben ik CEO bij Pera.

15
00:00:46,000 --> 00:00:48,000
Pera is een AI-bedrijf dat.

16
00:00:48,300 --> 00:00:54,620
Ja, modellen bouwt die heel precies menselijk gedrag kunnen voorspellen en daarmee succes na aanname.

17
00:00:57,100 --> 00:00:59,660
Dat klinkt al meteen heel heftig.

18
00:01:01,160 --> 00:01:01,560
Scary.

19
00:01:02,040 --> 00:01:03,160
Maar voordat we daarin gaan.

20
00:01:03,640 --> 00:01:05,000
Dit is een lekkere cliffhanger.

21
00:01:06,120 --> 00:01:09,240
Hoe ben je er eigenlijk zo hier ingekomen?

22
00:01:09,480 --> 00:01:12,120
Dus waarom ben je dit bedrijf gestart?

23
00:01:13,000 --> 00:01:13,480
Nou.

24
00:01:13,500 --> 00:01:18,620
Ik denk dat het zaadje ooit al een keer geplant is toen ik zelf solliciteerde.

25
00:01:19,020 --> 00:01:21,180
En dat was in de vroege jaren 2000.

26
00:01:22,280 --> 00:01:26,840
Toen was de situatie iets anders dan nu, dus toen waren er veel minder banen dan mensen.

27
00:01:27,720 --> 00:01:32,680
En ik denk dat ik ergens in de laatste ronde zat bij een grote multinational in Rotterdam.

28
00:01:33,800 --> 00:01:38,120
En dat had inmiddels, ik denk dat er acht of negen rondes waren.

29
00:01:38,200 --> 00:01:42,440
En het was dus een van de laatste momenten in dat proces.

30
00:01:43,580 --> 00:01:46,060
En ik zou een gesprek hebben met een psycholoog.

31
00:01:46,220 --> 00:01:47,820
Dus toen heb ik vervolgens.

32
00:01:48,140 --> 00:01:50,380
Daar werd ik al een beetje angstig van.

33
00:01:50,460 --> 00:01:51,820
Ik dacht een psycholoog

34
00:01:51,560 --> 00:01:55,160
Dus toen heb ik de dag tevoren met de HR gesproken van: goh, weet je, wat is de bedoeling?

35
00:01:55,320 --> 00:01:56,600
Ja, goede vraag ook.

36
00:01:57,400 --> 00:01:58,600
Moet ik me daarvoor voorbereiden?

37
00:01:58,680 --> 00:01:59,640
Of hoe kan ik me voorbereiden?

38
00:01:59,800 --> 00:02:01,800
Nee, dat wordt gewoon een gesprek om jou te leren kennen.

39
00:02:01,880 --> 00:02:05,800
Dus ik weet nog dat ik daar binnenkwam en die psycholoog zat voor me en die zei.

40
00:02:05,860 --> 00:02:07,060
Rina, goed dat je er bent.

41
00:02:07,140 --> 00:02:10,660
Hier is een case study over een jamfabriek in Polen.

42
00:02:10,740 --> 00:02:15,940
En kan je binnen een half uur vertellen hoe je de winst gaat vergroten en of je de baan aanneemt?

43
00:02:19,480 --> 00:02:24,760
Was afgestudeerd op kinderen met familiaire hypercholesterolemie.

44
00:02:25,000 --> 00:02:28,840
Dus alles wat te maken had met PNL, et cetera.

45
00:02:29,079 --> 00:02:29,960
Ik had geen idee.

46
00:02:30,040 --> 00:02:31,160
Dus ik heb die case gemaakt.

47
00:02:31,240 --> 00:02:32,680
En op een gegeven moment moest ik dat het.

48
00:02:33,020 --> 00:02:41,580
Presenteren aan die psycholoog, en ik weet niet of je wel eens het gevoel hebt gehad dat je ergens een soort van in een straat bent gegaan en dat je denkt ik zit hier verkeerd, ik kan niet meer terug.

49
00:02:41,900 --> 00:02:45,660
Nou, dat was dat gesprek, dat je aan alles merkt, ik zit niet goed.

50
00:02:46,200 --> 00:02:51,000
Dus op een gegeven moment heb ik dat gesprek maar stop gezet en gezegd, ja volgens mij is het ik volledig verkeerd.

51
00:02:51,080 --> 00:02:55,160
En zei Rina, je bent commercieel zo groen als gras en daar is de deur.

52
00:02:55,380 --> 00:02:58,020
En ik weet nog dat ik echt op het Weena heb staan huilen.

53
00:02:58,100 --> 00:02:59,780
Want ik dacht ik ben nu zeven maanden verder.

54
00:02:59,860 --> 00:03:01,300
En ik wilde echt deze baan.

55
00:03:01,380 --> 00:03:02,180
En waarom?

56
00:03:03,020 --> 00:03:04,460
Waarom ben ik het niet?

57
00:03:04,780 --> 00:03:06,460
En later heb ik me gerealiseerd.

58
00:03:06,700 --> 00:03:10,460
Fast forward: er zijn dus heel veel stappen in zo'n proces.

59
00:03:10,540 --> 00:03:13,100
Hoe wist die psycholoog nou dat ik dat niet kon?

60
00:03:13,660 --> 00:03:15,580
Op basis van een half uur?

61
00:03:15,680 --> 00:03:18,960
En twee is, waarom dacht ik dat ik er zo goed paste?

62
00:03:22,000 --> 00:03:25,360
Dus ik denk dat heel veel in recruitment gewoon een soort.

63
00:03:25,760 --> 00:03:25,840
.

64
00:03:26,140 --> 00:03:30,220
We hebben heel veel stapjes geïmplementeerd om een bepaalde zekerheid te verkrijgen.

65
00:03:30,380 --> 00:03:32,539
Terwijl het na aanname nog heel vaak fout gaat.

66
00:03:32,619 --> 00:03:35,979
Of vice versa, dat we supermooi talent over het hoofd zien.

67
00:03:36,059 --> 00:03:37,179
En dat het een soort.

68
00:03:38,000 --> 00:03:42,320
Kansen is dat jij een kans wordt gegeven dat je die baan krijgt waar je de achtergrond niet hebt.

69
00:03:43,760 --> 00:03:44,960
En beide is eigenlijk zonde.

70
00:03:45,460 --> 00:03:49,380
Beide zijn superzonde, want het ene is extreem kostbaar.

71
00:03:49,460 --> 00:03:51,059
En het andere ga je dus nooit meemaken.

72
00:03:51,220 --> 00:03:54,980
Om je mensen totaal niet meeneemt in zo'n proces.

73
00:03:55,940 --> 00:03:57,940
Nou, zo is het gekomen, denk ik.

74
00:03:58,260 --> 00:04:00,580
Maar dan is het nog best wel een stap om te zeggen van.

75
00:04:00,900 --> 00:04:02,100
hier ga ik iets mee doen.

76
00:04:02,580 --> 00:04:04,340
En ik ga daar AI voor inzetten.

77
00:04:04,580 --> 00:04:09,940
Ja, dat AI kwam, omdat ik voor dit bedrijf een ander bedrijf had, dat.

78
00:04:11,620 --> 00:04:18,180
Chinees, met name Chinese wetenschappers, bèta's, recruteerden voor R&D centers in Europa.

79
00:04:18,640 --> 00:04:20,399
En dat was een heel intensief proces.

80
00:04:20,800 --> 00:04:27,360
Dat was ook nog in de tijd dat veel van de research en development, ik heb lang voor DSM gewerkt, zich verplaatsen naar Azië.

81
00:04:28,160 --> 00:04:31,280
En dat het best ingewikkeld was om hier goede bèta's te vinden.

82
00:04:31,360 --> 00:04:32,960
Dus mensen met een engineering-achtig.

83
00:04:34,820 --> 00:04:41,780
En uit dat, eigenlijk door dat bedrijf, kwamen we erachter dat er zoveel, weer hetzelfde verhaal, zoveel stapjes in zo'n proces zaten.

84
00:04:41,940 --> 00:04:43,620
Terwijl het aan de achterkant.

85
00:04:43,940 --> 00:04:44,579
.

86
00:04:44,240 --> 00:04:45,520
Nog steeds mis ging.

87
00:04:45,840 --> 00:04:49,600
En toen ben ik iemand tegengekomen die was al bezig met deze technologie.

88
00:04:49,760 --> 00:04:51,200
Die had geprobeerd dat

89
00:04:51,300 --> 00:04:53,780
In eerste instantie toe te passen binnen educatie.

90
00:04:53,860 --> 00:04:59,140
Dus hoe kunnen we jonge mensen helpen om beter te beslissen wat bij hen past, welke opleiding.

91
00:04:59,260 --> 00:05:02,940
Nou, ook dat is in Azië extreem gereguleerd, net zoals in Europa.

92
00:05:00,820 --> 00:05:01,060
In

93
00:05:03,020 --> 00:05:04,460
Dus dat is best wel ingewikkeld.

94
00:05:04,940 --> 00:05:09,260
Dus toen zei ik tegen hem, ja maar als we dit zouden kunnen toepassen op een recruitmentproces.

95
00:05:09,500 --> 00:05:14,140
Dan worden we zoveel beter in het voorspellen wie er succesvol gaat zijn.

96
00:05:14,299 --> 00:05:17,980
Zonder dat we kijken naar alle obvious markers, weet je, in een cv.

97
00:05:18,299 --> 00:05:18,940
Als voorbeeld.

98
00:05:19,260 --> 00:05:21,660
Of de bias die je als mens hebt.

99
00:05:21,880 --> 00:05:25,000
Vooroordelen, dan hebben we denk ik echt iets moois in hand.

100
00:05:25,079 --> 00:05:26,280
En zo zijn we begonnen.

101
00:05:27,079 --> 00:05:32,680
Ik denk dat er best wel nu luisteraars zijn die denken van ja, sollicitatie, bias, AI.

102
00:05:32,840 --> 00:05:34,600
Dan krijg je juist bias.

103
00:05:34,940 --> 00:05:35,980
Ja, dat kan ook.

104
00:05:36,060 --> 00:05:39,340
Dus er kan heel veel bias in dat soort systemen zitten.

105
00:05:39,820 --> 00:05:42,140
Als je het niet op de juiste manier doet.

106
00:05:42,380 --> 00:05:43,420
Dus ik denk dat we.

107
00:05:43,940 --> 00:05:48,900
gezien hebben dat je eigenlijk op drie manieren bepaalde voordelen uit modellen kan halen.

108
00:05:49,380 --> 00:05:51,300
Eén gaat over datacollectie.

109
00:05:51,460 --> 00:05:54,580
Dus welke data neem je nou precies mee in die modellen?

110
00:05:54,680 --> 00:06:06,680
Twee is op het moment dat je modellen bouwt of codeert, kan je ook bepaalde, ja we noemen dat features, bepaalde elementen uit die modellen halen waarvan we weten dat ze bepaalde bias.

111
00:06:06,860 --> 00:06:07,500
In zich houden.

112
00:06:07,740 --> 00:06:09,100
Dus daar kun je ervoor corrigeren.

113
00:06:09,580 --> 00:06:14,780
En het derde is denk ik nadat je het model implementeert in je recruitmentproces, dat je ook blij

114
00:06:15,040 --> 00:06:18,240
Constant data blijft ophalen om te toetsen na aanname.

115
00:06:18,400 --> 00:06:20,400
Of dat er bepaalde biases in zitten.

116
00:06:20,480 --> 00:06:23,040
Zodat je daar weer in het model voor kunt corrigeren.

117
00:06:23,440 --> 00:06:24,960
Dus ik denk dat juist.

118
00:06:25,220 --> 00:06:31,460
Door deze drie stappen te nemen, je de voordelen uit deze modellen kunt schroeven.

119
00:06:31,699 --> 00:06:34,660
En dat is veel ingewikkelder bij mensen om dat te doen.

120
00:06:34,760 --> 00:06:35,480
Snap ik?

121
00:06:36,120 --> 00:06:42,840
En het proces wat je noemt, ik denk dat heel veel mensen die zijn natuurlijk laat ingestapt op het gebied van AI.

122
00:06:42,920 --> 00:06:47,080
En die denken dat taalmodellen en generatieve AI dat dat.

123
00:06:48,700 --> 00:06:49,340
Dat dat het is.

124
00:06:49,980 --> 00:06:54,540
En wat ik aan je hoor, zijn eigenlijk stappen die veel meer gaan over machine learning.

125
00:06:55,580 --> 00:06:59,660
Ja, dus wij bouwen, als je kijkt naar het spectrum van AI, dan.

126
00:07:00,100 --> 00:07:06,100
zitten wij op de narrow AI modellen die dus specifiek getraind worden voor een bepaalde opdracht.

127
00:07:06,260 --> 00:07:08,900
En in dit geval is de opdracht om te herkennen.

128
00:07:09,000 --> 00:07:11,880
Wat de patronen in high performance zijn in Teams.

129
00:07:09,060 --> 00:07:09,300
.

130
00:07:12,120 --> 00:07:15,160
Zodat we die ook in recruitment, maar ook intern kunnen toepassen.

131
00:07:15,239 --> 00:07:17,960
En daar is één onderdeel daarvan.

132
00:07:18,040 --> 00:07:19,720
Het eerste is machine learning.

133
00:07:19,860 --> 00:07:23,060
Daarnaast heb je natuurlijk generatieve AI, daar heeft iedereen het over.

134
00:07:23,220 --> 00:07:25,700
Dat zijn de ChatGPT's van deze wereld.

135
00:07:25,780 --> 00:07:34,340
En het andere waar heel veel discussies over gaan, maar daar weten we niet zo goed hoe dat gaat lopen, is natuurlijk super artificial intelligence.

136
00:07:35,240 --> 00:07:39,640
Ja, als je met wetenschappers spreekt uit Amerika, die zeggen dat is er over drie jaar.

137
00:07:39,720 --> 00:07:42,200
Hoezo wordt er niks gedaan in Nederland.

138
00:07:42,060 --> 00:07:47,660
Op dit gebied, of wel op voorbereid, politiek gezien, en anderen zeggen ja, geen idee.

139
00:07:47,820 --> 00:07:49,979
Maar wij zitten echt op dat eerste stuk.

140
00:07:50,240 --> 00:07:53,680
Dus heel taakgericht daar zelf modellen voor trainen.

141
00:07:53,920 --> 00:08:02,160
We hebben echt zelf IP opgebouwd, ook echt die datasets opgehaald bij honderden bedrijven over de afgelopen tien jaar.

142
00:08:03,140 --> 00:08:06,580
Om echt patronen te gaan herkennen in high-performing teams.

143
00:08:06,740 --> 00:08:09,380
Wat leidt nou tot disproportionele omzet?

144
00:08:10,160 --> 00:08:13,359
Betere klantenvredenheid, tot meer innovaties in de markt.

145
00:08:14,079 --> 00:08:16,160
Wat hebben die 20% van mensen?

146
00:08:16,960 --> 00:08:18,079
Wat de rest niet heeft.

147
00:08:18,160 --> 00:08:22,160
En dat blijkt dus te zitten in wat we dan competenties noemen.

148
00:08:21,780 --> 00:08:23,540
Daar zit de hoogste correlatie.

149
00:08:23,940 --> 00:08:25,060
En hoe kom je daarachter?

150
00:08:25,460 --> 00:08:26,340
Is dat interviews?

151
00:08:27,540 --> 00:08:31,300
Ja, dat is heel ook wel echt een soort reis geweest.

152
00:08:31,380 --> 00:08:34,419
Want toen we begonnen hebben we eigenlijk gekeken van zouden we.

153
00:08:35,080 --> 00:08:42,679
Versneld zouden we sneller, zouden we tot dezelfde conclusie kunnen komen als een recruiter.

154
00:08:44,000 --> 00:08:45,360
Dus zo zijn we eigenlijk begonnen.

155
00:08:46,000 --> 00:08:50,640
En dat konden we duizend keer sneller met dezelfde accuratesse.

156
00:08:50,800 --> 00:08:54,560
Alleen we kwamen erachter dat recruiters natuurlijk niet altijd de beste beslissingen namen.

157
00:08:54,900 --> 00:08:58,740
We hebben allerlei type data opgehaald, video's.

158
00:08:59,780 --> 00:09:03,540
We weten overigens uit de wetenschap dat natuurlijk intelligentie en.

159
00:09:03,860 --> 00:09:04,019
.

160
00:09:04,920 --> 00:09:11,160
gestructureerde interviews als methode eigenlijk de hoogste voorspelbaarheid hebben op jobsucces.

161
00:09:11,480 --> 00:09:14,040
Of hoe goed iemand het gaat doen in de baan.

162
00:09:14,700 --> 00:09:19,340
Dus we hebben ook allemaal dat soort type datasets opgehaald.

163
00:09:19,580 --> 00:09:23,020
Uiteindelijk zijn we uitgekomen bij.

164
00:09:25,400 --> 00:09:26,120
Het einde.

165
00:09:26,520 --> 00:09:32,280
Dus hoe goed doen mensen het nou eigenlijk werkelijk in een baan?

166
00:09:32,360 --> 00:09:34,520
Dus we zijn bij medewerkers uitgekomen.

167
00:09:34,300 --> 00:09:37,900
Ja, dus dan zitten we eigenlijk een paar stappen verder naar het recruitment proces.

168
00:09:38,300 --> 00:09:43,020
Ja, dus je gaat eigenlijk wat we doen is dat we simpel gezegd.

169
00:09:43,160 --> 00:09:47,320
We kijken binnen bedrijven, halen we drie typen datasets op.

170
00:09:43,180 --> 00:09:43,980
bekijken binnen bedrijven 

171
00:09:43,980 --> 00:09:44,300
halen we 3 typen dataset op.

172
00:09:47,480 --> 00:09:54,440
Eén gaat over hoe worden mensen geobserveerd door hun peers, dus de mensen met wie ze werken op gedrag.

173
00:09:56,360 --> 00:10:04,040
Want we wisten bijvoorbeeld ook dat managerbeoordelingen, wat heel veel bedrijven doen, elk jaar geen correlatie hielden met een objectieve uitkomst.

174
00:10:04,200 --> 00:10:06,280
Interessant, hoe ben je erachter gekomen?

175
00:10:06,520 --> 00:10:07,720
Dus door die data op te halen.

176
00:10:08,000 --> 00:10:10,960
Dus daar waren we eigenlijk begonnen van geef ons maar je performance data.

177
00:10:11,440 --> 00:10:14,640
En die performance data bestaat vaak uit een managerbeoordeling.

178
00:10:14,720 --> 00:10:15,360
En uit.

179
00:10:16,040 --> 00:10:19,000
In de meeste banen objectieve output.

180
00:10:19,160 --> 00:10:24,520
Dus bijvoorbeeld de omzet die je gegenereerd hebt of de klanttevredenheidscores die je genereert.

181
00:10:25,160 --> 00:10:27,640
Aantal code dat je schrijft binnen een bepaalde sprint.

182
00:10:27,720 --> 00:10:31,880
Of dingen die gelieerd zijn aan je strategie, maar die je hard meet.

183
00:10:32,360 --> 00:10:37,400
Nou, dan ga je dus kijken welke relaties liggen er nou tussen die managerbeoordelingen en die outputdata.

184
00:10:37,760 --> 00:10:39,600
Nou, dat bleek dus nul te zijn.

185
00:10:40,480 --> 00:10:41,040
Bijna nul.

186
00:10:41,600 --> 00:10:43,440
Nee, maar laten we het op nul houden, toch?

187
00:10:45,040 --> 00:10:45,920
Maar ja, dat dus.

188
00:10:46,840 --> 00:10:47,160
Prima.

189
00:10:49,000 --> 00:10:55,720
Je zou kunnen zeggen, als we dat gewoon als inputdata voor een algoritme nemen, kan het in ieder geval duizend keer sneller tot die conclusie.

190
00:10:56,760 --> 00:10:59,320
Dan hoeven we niet al die performancebeoordelingen te gaan lopen.

191
00:10:59,400 --> 00:11:00,040
Precies.

192
00:11:00,000 --> 00:11:00,960
Hoe lekker zou dat zijn?

193
00:11:01,200 --> 00:11:02,560
Maar we wilden het natuurlijk beter doen.

194
00:11:03,680 --> 00:11:08,160
Dus uiteindelijk zijn we erachter gekomen dat je eigenlijk op het moment dat je meerdere mensen uitvraagt.

195
00:11:08,240 --> 00:11:10,720
Om elkaar te vergelijken op meerdere skills.

196
00:11:11,120 --> 00:11:12,400
Dat dat de beste manier is.

197
00:11:12,480 --> 00:11:14,800
Dan krijg je zo min mogelijk statistische ruis.

198
00:11:14,960 --> 00:11:18,240
Dus 360 feedbackformulieren van collega's, dat soort zaken.

199
00:11:18,720 --> 00:11:19,600
Doe een soort crowd.

200
00:11:20,140 --> 00:11:22,380
van om het maar even simpel te houden, je doet een soort crowdsourcing.

201
00:11:22,460 --> 00:11:23,900
Dus we hebben daar methode voor.

202
00:11:24,220 --> 00:11:25,260
Nou, dus dat doe je.

203
00:11:25,420 --> 00:11:27,900
Twee is dat je zoveel mogelijk harde data ophaalt.

204
00:11:28,220 --> 00:11:30,860
Voor op individueel niveau.

205
00:11:31,499 --> 00:11:34,700
Dus dan kun je onderzoeken in ieder geval al, wat doet er toe?

206
00:11:35,179 --> 00:11:41,820
Welke vaardigheden leiden nou echt tot top 20% of 60% output?

207
00:11:43,040 --> 00:11:46,160
En dat is al denk ik heel belangrijk inzicht.

208
00:11:46,559 --> 00:11:47,840
Veel mensen weten dat helemaal niet.

209
00:11:47,920 --> 00:11:49,680
Die denken, oh ja, nee, we denken dit en dit.

210
00:11:49,840 --> 00:11:51,040
Maar weet je het ook echt.

211
00:11:51,600 --> 00:11:53,520
Maar dat leidt nog niet tot een schaalbaar model.

212
00:11:53,840 --> 00:11:57,200
Dus je hebt nog een derde ingrediënt nodig, en dat is taalgebruik.

213
00:11:57,240 --> 00:12:01,240
Dus we hebben iedereen drie open gestructureerde interviewvragen gesteld.

214
00:12:02,680 --> 00:12:09,320
En de AI kijkt, haalt eigenlijk, daar hebben we AI voor nodig, die haalt daar eigenlijk 200 markers uit.

215
00:12:10,360 --> 00:12:13,720
Die we dan koppelen aan die labels, die observaties van gedrag.

216
00:12:13,800 --> 00:12:17,800
En we weten dat dat gedrag vervolgens correleert met een bepaalde uitkomst.

217
00:12:18,040 --> 00:12:20,439
Heb je daar een voorbeeld van, van zo'n marker?

218
00:12:21,100 --> 00:12:24,859
Nou ja, de meest die echt heel hoog correleren zijn vaak heel abstract.

219
00:12:24,939 --> 00:12:31,499
Dus dat zit in dingen als van, nou ja, welk voornaamwoord houdt nou verband met bepaalde zinsopbouw?

220
00:12:32,860 --> 00:12:36,460
Dus het gaat eigenlijk over stylistische en semantische markers.

221
00:12:36,620 --> 00:12:38,380
Dus niet per se over wat je schrijft.

222
00:12:38,620 --> 00:12:39,500
Maar de manier waarop.

223
00:12:39,900 --> 00:12:40,780
De manier waarop.

224
00:12:40,940 --> 00:12:41,900
En dat zit heel.

225
00:12:41,900 --> 00:12:43,740
Dat doe je niet bewust als mens.

226
00:12:43,820 --> 00:12:45,020
Dus dat maakt het heel interessant.

227
00:12:45,499 --> 00:12:46,700
Een soort vingerafdruk.

228
00:12:46,860 --> 00:12:48,300
Maar het is eigenlijk ook wel vreemd.

229
00:12:48,460 --> 00:12:52,460
En dat heeft dus invloed op hoe succesvol je bent.

230
00:12:53,660 --> 00:12:55,340
Je gebruikt eigenlijk taal.

231
00:12:56,520 --> 00:12:59,320
Om die uitkomst te voorspellen.

232
00:12:59,879 --> 00:13:07,879
Dus omdat je van medewerkers heel veel informatie hebt over welke competenties leiden nou tot topperformance.

233
00:13:08,640 --> 00:13:17,520
Ga je kijken wat hebben die mensen die de topperformers zijn, anders in die 200 features, in hun taalgebruik dan mensen die niet.

234
00:13:18,200 --> 00:13:19,640
Of minder succesvol zijn.

235
00:13:20,040 --> 00:13:22,360
En dan creëer je dus een optimaal model.

236
00:13:22,600 --> 00:13:24,600
En daar kun je dus weer andere mensen tegen afzetten.

237
00:13:24,680 --> 00:13:25,880
Die stel je maar drie.

238
00:13:26,040 --> 00:13:28,040
Open vragen, superlaagdrempelig.

239
00:13:28,280 --> 00:13:29,240
Oké, bijzonder.

240
00:13:32,600 --> 00:13:33,480
Misschien het ook meteen.

241
00:13:33,720 --> 00:13:34,120
Nee, nee, nee.

242
00:13:36,340 --> 00:13:37,780
Bij mij komt er nog gelijk naar boven.

243
00:13:37,860 --> 00:13:40,660
Die vragen worden dan in elkaar ingevuld zonder een gebruik van AI.

244
00:13:40,740 --> 00:13:44,900
Want dat wordt nu gebruikt om vragen te beantwoorden, cv's op te stellen en dat soort zaken.

245
00:13:44,980 --> 00:13:46,100
Maar dan heb je dat niet meer.

246
00:13:46,260 --> 00:13:47,300
Nee, ja, je moet.

247
00:13:47,460 --> 00:13:50,180
Het is natuurlijk wel belangrijk dat we jou leren kennen.

248
00:13:50,820 --> 00:13:52,900
Maar is het een gesproken interview?

249
00:13:55,060 --> 00:13:59,540
Je kan het inspreken en dan zet het om naar tekst of je schrijft het.

250
00:13:59,620 --> 00:14:00,100
Oh ja.

251
00:14:00,580 --> 00:14:01,780
Oké, want zo heb je natuurlijk.

252
00:14:02,180 --> 00:14:02,340
.

253
00:14:02,340 --> 00:14:02,420
.

254
00:14:02,420 --> 00:14:06,580
Want ik moest meteen denken van als we het hebben over vooroordelen.

255
00:14:07,880 --> 00:14:10,520
We hebben het over schrijven, dan heb je natuurlijk mensen met dyslexie.

256
00:14:10,600 --> 00:14:16,040
En dan zou je me voorstellen dat daar dan weer een ander patroon in zit.

257
00:14:16,200 --> 00:14:18,840
Nou, dat is grappig, want dyslexie hebben we heel veel.

258
00:14:19,379 --> 00:14:20,900
testen ook opgedraaid.

259
00:14:21,860 --> 00:14:27,140
Een van de dingen die ik in de introductie vertelde, dat je op drie momenten kijkt of er bias in het systeem zit.

260
00:14:27,180 --> 00:14:35,020
Op dat derde moment stellen we aan het einde van dat, wij noemen dat dan een digitaal interview, kunnen mensen geanonimiseerd nog vragen invullen.

261
00:14:35,260 --> 00:14:38,460
Die te maken hebben met diversiteit.

262
00:14:38,620 --> 00:14:43,900
Dus bijvoorbeeld een van de vragen die we dan stellen is ook van ben je neurodivers en op welk vlak?

263
00:14:45,859 --> 00:14:47,299
En waarom is dat niet zo?

264
00:14:47,460 --> 00:14:50,980
Dus bijvoorbeeld bij dyslexie, is dat we dus niet kijken hoe goed je schrijft.

265
00:14:51,059 --> 00:14:52,419
Het is geen taaltest.

266
00:14:53,299 --> 00:14:56,980
Het kijkt naar die subtiele, onbewuste markers in je taalgebruik.

267
00:14:57,500 --> 00:15:02,380
En vergelijk dat dus inmiddels met miljoenen mensen die we in die dataset hebben.

268
00:15:03,740 --> 00:15:04,620
Ik snap hem.

269
00:15:05,960 --> 00:15:08,600
Maar dat is wat een gave manier.

270
00:15:10,600 --> 00:15:12,280
Dat moet echt landen, hoor je dat?

271
00:15:15,560 --> 00:15:19,320
Want hoe succesvol mensen zijn, heeft natuurlijk echt ook te maken met.

272
00:15:20,260 --> 00:15:22,980
Dat duurt een tijd voordat je uiteindelijk daar feedback van krijgt.

273
00:15:23,460 --> 00:15:26,900
Hoe lang halen jullie die feedback weer op?

274
00:15:29,400 --> 00:15:32,680
Nou, we doen in ieder geval ieder jaar een cycle met klanten.

275
00:15:33,960 --> 00:15:36,520
En eigenlijk, het ligt er een beetje aan wat je wil voorspellen.

276
00:15:36,600 --> 00:15:40,200
Dus bijvoorbeeld, we werken ook veel met klanten in de gezondheidszorg.

277
00:15:40,520 --> 00:15:42,040
En die hebben vaak een veel.

278
00:15:42,359 --> 00:15:44,999
Een ander probleem, dat gaat vaak over hoog verloop.

279
00:15:45,320 --> 00:15:47,480
Dus mensen komen binnen en gaan dan weer weg.

280
00:15:48,040 --> 00:15:50,280
Nou, ook daarin, dat zijn.

281
00:15:51,900 --> 00:15:54,220
uitkomsten die je mee kan nemen in zo'n model.

282
00:15:54,700 --> 00:16:00,300
Als we dat willen voorspellen kunnen we gaan kijken, gaan we nou of patronen vinden in mensen die zijn gebleven of die weggaan.

283
00:16:00,700 --> 00:16:04,299
Dus je probeert eigenlijk afhankelijk van het probleem dat je oplost.

284
00:16:05,260 --> 00:16:08,780
En dat probleem kan zitten in we groeien niet snel genoeg.

285
00:16:08,859 --> 00:16:11,739
We werken veel voor bedrijven waar bijvoorbeeld private equity.

286
00:16:11,859 --> 00:16:14,980
Aandeelhouder is, die moeten gewoon bepaalde stappen maken.

287
00:16:15,059 --> 00:16:21,460
Dan zit er vaak een buy-in-build strategie achter, waar cultuur een belangrijk element is en commercieel succes.

288
00:16:21,600 --> 00:16:25,920
Nou ja, dus dat is voor ons een uitgelezen mogelijkheid.

289
00:16:27,520 --> 00:16:30,480
En dan probeer je eigenlijk.

290
00:16:30,640 --> 00:16:30,880
.

291
00:16:30,840 --> 00:16:34,600
zoveel mogelijk op die momenten, dat kan zijn per kwartaal of per.

292
00:16:34,840 --> 00:16:34,920
.

293
00:16:34,920 --> 00:16:35,080
.

294
00:16:35,080 --> 00:16:38,760
in ieder geval één keer per jaar, die data op te halen en te verversen.

295
00:16:38,760 --> 00:16:40,280
Want dat vind ik ook het mooie wel aan

296
00:16:40,760 --> 00:16:41,640
Aan modellen.

297
00:16:41,720 --> 00:16:42,280
Je kan.

298
00:16:42,520 --> 00:16:49,160
Kijk, wij hebben maar een bepaald vermogen om informatie te verwerken.

299
00:16:51,299 --> 00:16:55,859
Maar hier hebben we eigenlijk gewoon denk ik tien jaar lang een soort zelfrijdende auto gebouwd.

300
00:16:56,100 --> 00:16:59,299
Maar dan om businessuitkomsten te voorspellen.

301
00:17:00,240 --> 00:17:07,440
En dus wordt dat iedere keer slimmer, naarmate je meer van die feedbackloops, van die feedbackdata in zo'n systeem terugvoert.

302
00:17:07,520 --> 00:17:10,160
Dus het itereert iedere keer naar de waarheid van dit moment.

303
00:17:10,560 --> 00:17:12,000
Je krijgt steeds verfijnder, eigenlijk.

304
00:17:12,240 --> 00:17:13,200
Veel verfijnder.

305
00:17:13,760 --> 00:17:17,920
En even vanuit interesse om even door te filosoferen zat ik in het achtergrond.

306
00:17:18,240 --> 00:17:23,599
Dan weet je dat voor individuen, maar we werken vaak in teams samen en het gaat om de hele organisatie.

307
00:17:23,920 --> 00:17:26,079
Hoe zit die gelaagdheid daar dan in?

308
00:17:27,220 --> 00:17:29,860
Je kan hem eigenlijk heel mooi opbouwen per.

309
00:17:30,580 --> 00:17:30,900
.

310
00:17:31,140 --> 00:17:31,620
.

311
00:17:31,620 --> 00:17:32,820
Dus eigenlijk zou je.

312
00:17:32,820 --> 00:17:32,980
.

313
00:17:32,980 --> 00:17:33,140
.

314
00:17:33,140 --> 00:17:34,900
Inmiddels hebben we zo'n grote dataset.

315
00:17:35,059 --> 00:17:36,419
Dus even als voorbeeld.

316
00:17:35,059 --> 00:17:36,740
Er zijn dus bedrijven die.

317
00:17:37,340 --> 00:17:41,580
willen een soort transitie maken naar meer innovatie.

318
00:17:41,899 --> 00:17:45,260
Nou, dan zouden ze kunnen zeggen, één is, weet je, wat is dan nu.

319
00:17:45,500 --> 00:17:45,659
.

320
00:17:46,179 --> 00:17:48,100
De status van het moment.

321
00:17:49,700 --> 00:17:54,420
Dan zou je kunnen zeggen, we laten alle medewerkers dat digitale interview afnemen.

322
00:17:54,499 --> 00:17:58,739
En dat zetten we af tegen de data in ons systeem, in ons model.

323
00:17:59,619 --> 00:18:03,460
Van bedrijven die veel innovatiever waren dan anderen.

324
00:18:03,860 --> 00:18:07,060
Nou, dan krijg je dus een uitkomst op organisatieniveau.

325
00:18:07,220 --> 00:18:08,580
Waar zitten de gaps?

326
00:18:08,519 --> 00:18:09,960
Gewoon op organisatieniveau.

327
00:18:10,120 --> 00:18:13,320
En vervolgens kun je

329
00:18:16,519 --> 00:18:17,560
Zijn die er überhaupt wel?

330
00:18:17,720 --> 00:18:21,960
Zijn er andere vaardigheden die tot high performance leiden of niet?

331
00:18:22,140 --> 00:18:22,940
Waardoor je.

332
00:18:23,100 --> 00:18:24,540
En dan op individueel niveau.

333
00:18:24,620 --> 00:18:28,220
Dus het zijn eigenlijk drie lagen waarop je analyses aflevert.

334
00:18:28,860 --> 00:18:30,700
En die zet je dan in tweeledig.

335
00:18:30,780 --> 00:18:33,020
Dus één is, je zet ze in, denk ik, om.

336
00:18:33,760 --> 00:18:40,560
Intern te kijken, en dat vind ik ook het mooie aan AI, dat je veel meer gepersonaliseerde trainingen kan gaan geven.

337
00:18:41,040 --> 00:18:44,320
Want we weten gewoon dat generieke trainingen eigenlijk heel weinig effect hebben.

338
00:18:44,399 --> 00:18:45,920
Dat doen heel veel bedrijven.

339
00:18:46,680 --> 00:18:48,600
Maar nu kun je gaan personaliseren.

340
00:18:48,759 --> 00:18:50,040
Dit team heeft dit nodig.

341
00:18:50,200 --> 00:18:51,879
En Rina specifiek dit.

342
00:18:53,720 --> 00:18:57,080
Je kan veel beter mensen op de juiste positie zetten.

343
00:18:58,520 --> 00:19:02,360
En ik denk het andere is dat je dat model verder kan inzetten voor je recruitment.

344
00:19:02,520 --> 00:19:05,400
Dus dat je veel een veel hogere kans hebt.

345
00:19:05,580 --> 00:19:13,820
om high performance aan te nemen, dan dat je het proces wat ik wat ik jullie uitlegde aan het begin doorloopt.

346
00:19:15,080 --> 00:19:18,280
Ja, en dan heb je high performance en dan heb je high performance teams inderdaad.

347
00:19:18,360 --> 00:19:19,320
Je wil dan natuurlijk zoeken.

348
00:19:19,400 --> 00:19:22,520
Wat zoekt het team, wat zoekt de organisatie, welke cultuur leeft er?

349
00:19:22,600 --> 00:19:24,760
En al die punten die bij elkaar komen, dat is dan.

350
00:19:25,160 --> 00:19:26,360
Ja, die zitten in zo'n model.

351
00:19:26,440 --> 00:19:29,400
Dus wat je eigenlijk ziet is dat het altijd zijn.

352
00:19:29,460 --> 00:19:37,139
In ieder geval op basis van alle data die we tot nu toe in die tien jaar verzameld hebben, zien we eigenlijk altijd dat er één of twee competenties.

353
00:19:37,300 --> 00:19:40,100
En wat ik bedoel met een competenties zijn dingen als.

354
00:19:40,100 --> 00:19:41,620
Hoe werk je in een team samen?

355
00:19:41,700 --> 00:19:43,060
Hoe communiceer je?

356
00:19:43,380 --> 00:19:46,340
Ben je flexibel of niet?

357
00:19:46,660 --> 00:19:51,060
Dus bepaalde soft skills, inmiddels zijn dat overigens denk ik hard skills geworden.

358
00:19:52,940 --> 00:19:55,899
Je ziet altijd dat er twee er echt toe doen.

359
00:19:56,060 --> 00:19:57,820
Dus in hoge mate correleren.

360
00:19:58,460 --> 00:20:00,620
Want heel vaak krijgt dan de vraag: ja, maar.

361
00:20:00,700 --> 00:20:00,940
.

362
00:20:00,860 --> 00:20:02,220
Heb je dan een divers team?

363
00:20:02,380 --> 00:20:02,700
Weet je wel?

364
00:20:02,860 --> 00:20:05,180
Wat ga je dan allemaal dezelfde type mensen aannemen?

365
00:20:05,340 --> 00:20:08,300
Nou, dat wil je voor een deel op die competenties wel doen.

366
00:20:08,460 --> 00:20:11,260
Als je weet dat resultaatgerichtheid, ik zeg even wat.

367
00:20:11,440 --> 00:20:17,440
Disproportioneel bijdraagt aan omzet binnen jullie bedrijf, dan wil je wel degelijk mensen aannemen die resultaatgericht zijn.

368
00:20:17,600 --> 00:20:19,920
Maar dat betekent niet dat ze op andere.

369
00:20:20,399 --> 00:20:23,120
het is altijd een soort samenstelling van competenties.

370
00:20:23,440 --> 00:20:24,080
Plus.

371
00:20:24,720 --> 00:20:28,960
Alle dingen die wij als divers benoemen, dus waar heeft iemand gestudeerd?

372
00:20:29,040 --> 00:20:29,920
Hoe ziet hij eruit?

373
00:20:30,000 --> 00:20:31,680
Weet je, wat is zijn geslacht?

374
00:20:32,320 --> 00:20:34,080
Waar heb je voorheen gewerkt?

375
00:20:34,320 --> 00:20:38,480
Daarin zien we across the board dat de diversiteit met 30% toeneemt.

376
00:20:39,000 --> 00:20:40,920
Want daar kijk je ook niet meer naar.

377
00:20:42,120 --> 00:20:43,960
De rest doet er eigenlijk niet meer toe.

378
00:20:44,120 --> 00:20:47,800
Ja, omdat die in het oude proces noem ik het dan maar even voor nu.

379
00:20:48,759 --> 00:20:50,840
Neem je die allemaal mee in die stappen van het proces.

380
00:20:51,080 --> 00:20:53,239
Waardoor je die dus continu meeneemt.

381
00:20:53,399 --> 00:20:58,600
En hier staat die wat op de achtergrond en staan de competenties op de voorgrond en wordt daar eigenlijk dus nagekeken.

382
00:20:58,920 --> 00:20:59,800
Ja, precies.

383
00:20:59,580 --> 00:21:03,420
En de competenties heb je gewoon door de maatschappij heen.

384
00:21:03,820 --> 00:21:05,820
Nou, die haal je ook daarin.

385
00:21:06,460 --> 00:21:10,940
Hebben we natuurlijk zoveel bedrijven van binnen gezien, dat al die bedrijven vaak competentieprofielen.

386
00:21:11,020 --> 00:21:13,420
Ik weet niet of jullie daar ook mee werken, zeker.

387
00:21:13,220 --> 00:21:17,780
En je hebt bepaalde waardes aan de muur hangen die je vertaalt naar gedragingen.

388
00:21:18,340 --> 00:21:20,900
Dus die twee zijn heel vaak aanwezig in een bedrijf.

389
00:21:20,980 --> 00:21:23,700
En wat wij eigenlijk doen, is de koppeling maken tussen.

390
00:21:24,460 --> 00:21:27,340
Oké, die waarden zijn er en die competenties zijn er.

391
00:21:27,660 --> 00:21:29,820
Welke daarvan zijn nou het meest belangrijk?

392
00:21:29,980 --> 00:21:35,340
Of zijn er een paar die we over het hoofd zien, die leiden tot betere uitkomsten?

393
00:21:37,060 --> 00:21:38,900
En jullie doen dit al tien jaar.

394
00:21:39,300 --> 00:21:43,620
Wat zijn nou de lastige drempels geweest waar je overheen moest?

395
00:21:44,020 --> 00:21:46,500
Nou, lastige drempels zijn denk ik tweeledig.

396
00:21:46,580 --> 00:21:47,380
Dus één is.

397
00:21:49,720 --> 00:21:58,920
Ik weet niet hoe jullie dat ervaren, maar ik denk dat het implementeren van een AI-strategie en daaraan gelieerde tooling.

398
00:21:59,260 --> 00:22:04,860
Ik denk dat je dat als leider zo min mogelijk moet delegeren naar beneden toe.

399
00:22:05,100 --> 00:22:10,860
Dus ik heb gezien dat de bedrijven die daar het meest succesvol in zijn, leiders zijn die daar zelf beslissingen over nemen.

400
00:22:10,940 --> 00:22:11,980
En waarom zeg ik dat?

401
00:22:14,200 --> 00:22:23,080
Als een recruiter een beslissing zou nemen, zou die misschien wel zeggen ik neem een algoritme wat heel snel een cv kan screenen.

402
00:22:25,500 --> 00:22:27,900
Daarmee is hij wel sneller.

403
00:22:28,460 --> 00:22:32,460
Maar als we weten dat een CV 3% van succes in een baan voorspelt.

404
00:22:32,840 --> 00:22:37,240
Ja, moet je je afvragen of je je strategische probleem aan het oplossen bent.

405
00:22:37,320 --> 00:22:39,480
Mijn strategische probleem is namelijk waarschijnlijk.

406
00:22:39,720 --> 00:22:40,920
Ik moet sneller groeien.

407
00:22:41,000 --> 00:22:42,920
Of ik moet sneller transformeren.

408
00:22:43,240 --> 00:22:44,680
Dus er moet iets gebeuren.

409
00:22:44,920 --> 00:22:47,400
En daar zit, denk ik, de crux bij ons.

410
00:22:47,480 --> 00:22:49,800
Wij lossen eigenlijk een businessprobleem op.

411
00:22:50,140 --> 00:22:52,460
Waar een recruiter niet op afgerekend wordt.

412
00:22:52,620 --> 00:22:54,380
In ieder geval niet alle recruiters.

413
00:22:54,620 --> 00:22:57,500
Die worden vaak afgerekend op time to hire.

414
00:22:59,180 --> 00:23:01,580
En soms hebben ze moeite om goede mensen te vinden.

415
00:23:01,660 --> 00:23:02,460
Dus dan denken ze.

416
00:23:03,380 --> 00:23:06,340
Ik wil helemaal niet nog een barrière in dat proces.

417
00:23:06,580 --> 00:23:13,220
Terwijl ik denk dat ook daarin je moet gaan kijken van wat is nou uiteindelijk wat je probeert te bewerkstelligen.

418
00:23:14,060 --> 00:23:19,580
En dat inderdaad op strategisch niveau, dus inderdaad niet het aantallen, niet dat soort zaken, ja.

419
00:23:20,140 --> 00:23:21,500
Maar dan heb je het over.

420
00:23:22,060 --> 00:23:24,860
Organisatorisch, zeg maar de implementatie van je systemen.

421
00:23:25,020 --> 00:23:29,580
Ik ben eigenlijk ook wel benieuwd waar jullie technisch tegenaan gelopen zijn.

422
00:23:30,739 --> 00:23:32,019
Dit vond ik ook geweldig hoor.

423
00:23:32,340 --> 00:23:41,619
Want ik denk dat het uiteindelijk, zeg maar, de implementatie van AI heeft het grootste risico op mislukking als het organisatorisch niet goed in elkaar zit.

424
00:23:41,260 --> 00:23:46,300
Ja, ik denk dat daar inderdaad, dat zie je ook in alle onderzoeken en dat zien wij ook in de praktijk.

425
00:23:46,860 --> 00:23:47,580
Dat het.

426
00:23:50,920 --> 00:23:57,240
Dat er best wel een gap zit tussen wat de technologie kan en wat mensen versneld adopteren.

427
00:23:57,560 --> 00:23:59,800
Dus die versnelling zit er vaak niet in.

428
00:24:00,280 --> 00:24:05,400
En bedrijven die dat wel heel goed doen, die hebben vaak dus leiders, leiderschap.

429
00:24:05,940 --> 00:24:10,820
Die dat niet delegeren naar beneden toe, maar die dus daar zelf de beslissingen over nemen.

430
00:24:11,060 --> 00:24:15,300
Dat koppelen aan hun strategie en ook betrokken blijven bij die implementatie.

431
00:24:17,980 --> 00:24:19,180
Ja, ownership nemen.

432
00:24:19,260 --> 00:24:20,140
En eigenlijk het ook.

433
00:24:20,300 --> 00:24:22,460
Ik zeg altijd, ja, we praten heel veel over AI.

434
00:24:22,540 --> 00:24:28,140
En heel vaak gaat het dan in de praktijk over een beetje met ChatGPT wat dingetjes doen.

435
00:24:29,639 --> 00:24:34,200
Maar ik denk dat het veel meer gaat over welk businessprobleem moeten we oplossen met elkaar.

436
00:24:34,360 --> 00:24:34,920
Ja, heel goed.

437
00:24:35,080 --> 00:24:38,760
En wat ik er ook in hoor, maar corrigeer me als het niet zo is, is.

438
00:24:38,960 --> 00:24:45,680
Niet kijken naar het huidige proces, maar kijken naar die uitdaging en wat het nieuwe proces of wat er voor nodig is om dat nieuwe doelstelling te gaan halen.

439
00:24:39,000 --> 00:24:39,320
.

440
00:24:45,759 --> 00:24:46,879
En wat jullie eigenlijk doen is.

441
00:24:47,040 --> 00:24:47,200
.

442
00:24:47,060 --> 00:24:50,420
opnieuw naar een proces gekeken en niet het bestaande proces geoptimaliseerd.

443
00:24:50,500 --> 00:24:52,180
En daar zie je ook vaak nog een verschil in.

444
00:24:52,260 --> 00:24:53,460
En ik was nog op.

445
00:24:53,700 --> 00:24:55,220
Ja, nee, maar ik vind het een heel mooi punt.

446
00:24:55,300 --> 00:24:57,460
Want het is precies ook altijd wat ik zeg van.

447
00:24:57,840 --> 00:25:01,680
Je innoveert vaak door naar die stapjes te kijken.

448
00:25:01,840 --> 00:25:04,320
Dan ga je op zo'n substapje innoveren.

449
00:25:04,400 --> 00:25:06,160
Terwijl ik denk het mooie nu is van.

450
00:25:06,320 --> 00:25:06,560
.

451
00:25:06,720 --> 00:25:10,640
Dat AI ook juist de mogelijkheid geeft om uit te zoomen.

452
00:25:10,960 --> 00:25:14,800
En laten we zeggen, een heel nieuw proces te designen.

453
00:25:15,120 --> 00:25:16,320
Wat dit probleem oplost.

454
00:25:16,480 --> 00:25:18,240
En dat probleem in dit geval is dus.

455
00:25:18,200 --> 00:25:22,040
We hebben geen idee hoe we hogere productiviteit uit onze teams halen.

456
00:25:22,519 --> 00:25:23,480
We doen maar wat.

457
00:25:25,900 --> 00:25:29,820
En in de praktijk ben je er dan tegenaan gelopen dat mensen dan toch aan het proces wilden vaststaan.

458
00:25:27,800 --> 00:25:28,120
We

459
00:25:29,900 --> 00:25:31,740
Want dat is nogal een verandering, zeg maar.

460
00:25:32,220 --> 00:25:34,700
Ja, dat maakt het natuurlijk soms ingewikkeld.

461
00:25:36,760 --> 00:25:40,200
Het vergt best wel een verandering.

462
00:25:41,960 --> 00:25:43,000
En dat zijn ook stapjes.

463
00:25:43,080 --> 00:25:45,560
Dus weet je, we hebben klanten die in het begin ons gewoon.

464
00:25:46,840 --> 00:25:48,999
Inzetten in het systeem wat ze al hadden.

465
00:25:49,639 --> 00:25:53,639
Maar wel met als doel om te gaan kijken hoe ze het konden optimaliseren.

466
00:25:53,720 --> 00:25:54,840
En dat doen we dan ook met hen.

467
00:25:54,920 --> 00:25:55,639
En op het moment.

468
00:25:55,600 --> 00:25:59,840
Dat je vertrouwen krijgt dat de uitkomsten ook significant beter zijn.

469
00:25:59,920 --> 00:26:01,120
En je toont dat aan.

470
00:26:01,280 --> 00:26:04,720
En dan durven bedrijven ook te zeggen, weet je, deze stapjes.

471
00:26:05,040 --> 00:26:09,119
We hebben een klant die had eerst vijf stappen en nu nog maar twee.

472
00:26:09,519 --> 00:26:12,159
Maar dat kun je dan ook op een datagedreven manier aantonen.

473
00:26:12,239 --> 00:26:15,279
Dat dit ook significant tot betere uitkomsten leidt.

474
00:26:15,600 --> 00:26:17,840
En dan durf het dan durven bedrijven wel.

475
00:26:17,840 --> 00:26:22,880
Wat ook logisch is, je moet vertrouwen krijgen in de oplossing, in een nieuwe manier van werken, in een nieuw proces.

476
00:26:23,040 --> 00:26:24,240
En dat duurt al dat even inderdaad.

477
00:26:24,320 --> 00:26:25,760
Dus het is mooi om te horen inderdaad.

478
00:26:26,000 --> 00:26:26,960
Om ze daarin mee te nemen.

479
00:26:27,040 --> 00:26:28,400
Ik denk dat het essentieel belang is.

480
00:26:28,560 --> 00:26:34,400
En er leveren natuurlijk heel veel verschillende ideeën over deze technologie, waar het naartoe gaat, wat je ermee moet.

481
00:26:34,720 --> 00:26:40,320
En in dat kader vragen wij aan onze gasten ook altijd om een stelling in te sturen achteraf.

482
00:26:40,480 --> 00:26:42,800
En daar willen we jou eentje aan voorleggen.

483
00:26:42,960 --> 00:26:44,400
Oh, ik ben benieuwd.

484
00:26:44,560 --> 00:26:49,280
[Muziek]

485
00:26:49,760 --> 00:26:51,920
[Muziek]

486
00:26:52,560 --> 00:26:54,880
[Muziek]

487
00:26:55,720 --> 00:26:57,560
En je hoort het in de jingle: het spel.

488
00:26:57,640 --> 00:27:00,360
Dus we hebben eigenlijk ook een kaartspel, maar daar zijn we met de gasten doorheen.

489
00:27:00,440 --> 00:27:02,520
Dus we zijn bezig met een nieuw kaartspel aan het ontwikkelen.

490
00:27:02,760 --> 00:27:05,880
En in de tussentijd doen we eventjes de stellingen van gasten.

491
00:27:06,440 --> 00:27:08,040
Deze stelling is van Gabi Ras.

492
00:27:08,120 --> 00:27:09,960
Dankjewel voor het delen, Gabi.

493
00:27:10,180 --> 00:27:12,019
En de stelling luidt als volgt.

494
00:27:12,340 --> 00:27:17,060
Generatieve AI moet in bepaalde sectoren worden verboden.

495
00:27:20,540 --> 00:27:24,300
Dan ben ik altijd wel benieuwd naar de achtergrond van de vraag.

496
00:27:25,580 --> 00:27:27,180
Ja, Gabi is er helaas.

497
00:27:30,060 --> 00:27:30,779
Dus wat is.

498
00:27:31,500 --> 00:27:32,380
Waarom zou ze de.

499
00:27:32,540 --> 00:27:32,700
.

500
00:27:32,700 --> 00:27:32,860
.

501
00:27:32,860 --> 00:27:34,220
Wat is de vraag achter de vraag?

502
00:27:34,220 --> 00:27:35,340
Ja, dat is een hele goede, hè.

503
00:27:35,340 --> 00:27:39,740
Ja, die kunnen we nou niet stellen.

504
00:27:39,820 --> 00:27:40,060
Nou, ik.

505
00:27:40,820 --> 00:27:44,180
Ik zou niet weten waarom je het zou moeten verbieden.

506
00:27:44,340 --> 00:27:47,460
Zijn er voorbeelden waarvan jullie zeggen van daar zou je hem.

507
00:27:48,379 --> 00:27:54,860
Kijk, ik vind wel bijvoorbeeld algoritmes in social media, weet je, maar dat heeft niet zozeer met generatieve AI te maken.

508
00:27:55,180 --> 00:27:56,700
Maar die zou ik wel willen verbieden.

509
00:27:56,779 --> 00:27:57,899
Ik denk dat het helemaal niet.

510
00:27:58,040 --> 00:27:59,560
Goed werkt in onze democratie?

511
00:27:59,720 --> 00:28:00,680
Dat vind ik eigenlijk wel een goede.

512
00:28:00,759 --> 00:28:03,480
Want in eerste instantie dacht ik van ik ben tegen verbieden.

513
00:28:03,800 --> 00:28:06,360
Dat je heel goed kijkt van voegt iets toe, ja of nee.

514
00:28:06,440 --> 00:28:07,480
En dan zeker voor een hele sector.

515
00:28:07,800 --> 00:28:09,239
Lijkt me lijkt me nog breed.

516
00:28:09,399 --> 00:28:10,999
Maar wat jij nu zegt, ja, al die.

517
00:28:11,400 --> 00:28:14,440
Als we die algoritmes uit die social media zouden kunnen halen.

518
00:28:14,760 --> 00:28:20,760
Nou ja, of je moet zeggen van je kunt gewoon niet meer bepaalde content plaatsen zonder anoniem te blijven.

519
00:28:21,000 --> 00:28:22,920
Weet je, dat zou ook wetgeving kunnen zijn.

520
00:28:24,520 --> 00:28:33,560
Want ik denk dat daar heel veel onrust en dat daarmee de democratie wel wordt.

521
00:28:34,640 --> 00:28:36,560
Stapje voor stapje wordt aangetast.

522
00:28:36,800 --> 00:28:44,080
Ja, zonder dat je het misschien expliciet merkt, waardoor het inderdaad ineens een grotere gevoelsmatige impact heeft.

523
00:28:44,240 --> 00:28:46,160
Ik ben op zich tegen verbieden.

524
00:28:46,400 --> 00:28:50,240
Ik ben wel dat we als maatschappij er tegen moeten zijn, zeker op social media.

525
00:28:50,400 --> 00:28:53,440
Maar het verbieden van technologie op zich ben ik tegen.

526
00:28:53,600 --> 00:28:56,160
Ik ben meer van wat is de intentie erachter.

527
00:28:56,000 --> 00:29:04,480
En zijn we het eens met die intentie en misschien moeten we dan de toepassing van de technologie daarvoor verbieden omdat de intentie niet past bij wat we maatschappelijk verantwoord vinden.

528
00:29:06,320 --> 00:29:11,920
En wat ik hier ook lastig vind is dat het natuurlijk ook helemaal niet duidelijk is hoe die algoritmes werken.

529
00:29:12,239 --> 00:29:15,040
En misschien is dat een mooi bruggetje terug naar jou.

530
00:29:17,060 --> 00:29:24,180
Wordt er een bepaalde mate van uitleg geven aan degene die onderworpen wordt aan de modellen van jullie?

531
00:29:24,860 --> 00:29:26,220
Ja, we geven zeker uitleg.

532
00:29:26,380 --> 00:29:30,380
En ook heel transparant, weet je, dat ze een digitaal interview doen.

533
00:29:30,779 --> 00:29:32,540
waarvoor je ook consent kan geven.

534
00:29:32,620 --> 00:29:33,740
Dus dat is denk ik wel belangrijk.

535
00:29:33,820 --> 00:29:36,300
Dat doen overigens onze concurrenten in Amerika niet.

536
00:29:38,440 --> 00:29:43,240
En je probeert ook zoveel mogelijk eigenlijk uit te leggen wat het is.

537
00:29:43,960 --> 00:29:46,120
Dus dat ze, het is niet een selftest.

538
00:29:47,019 --> 00:29:54,300
Heel veel van de, als ik het even in de bak assessment gooi, zeg maar, zijn natuurlijk gestoeld op of persoonlijkheidstesten.

539
00:29:54,620 --> 00:29:57,019
Dat is altijd waar, want dat is hoe je jezelf ziet.

540
00:29:57,340 --> 00:30:01,019
Maar ook daarin zit heel weinig correlatie met jobsucces.

541
00:30:01,240 --> 00:30:02,680
Of het is een IQ-test.

542
00:30:02,760 --> 00:30:07,800
En IQ correleert wel met jobsucces, maar is natuurlijk maar heel beperkt.

543
00:30:08,200 --> 00:30:14,840
Dus we hebben ook gezien dat in sommige banen IQ niet de doorslaggevende factor was.

544
00:30:17,260 --> 00:30:22,860
Dus wat we proberen te doen is in eerste instantie ook uit te leggen te geven aan de kandidaat wat dit is.

545
00:30:23,519 --> 00:30:29,360
Nou, het is een test waarbij we kijken hoe je je verhoudt tot mensen in het bedrijf.

546
00:30:30,639 --> 00:30:37,040
En we geven, denk ik ook, dat is ook wel mooi, uiteindelijk ook gewoon feedback aan een kandidaat waar die iets mee kan.

547
00:30:37,060 --> 00:30:41,220
Dus stel dat je uiteindelijk maakt het systeem geen beslissing.

548
00:30:41,380 --> 00:30:45,060
Het is de recruiter of de hiringmanager die een beslissing neemt.

549
00:30:44,900 --> 00:30:49,380
En die neemt natuurlijk alle intelligentie tot zich om tot een beter besluit te komen.

550
00:30:50,340 --> 00:30:52,660
Maar we willen eigenlijk die kandidaat ook helpen.

551
00:30:52,740 --> 00:30:57,780
Want als jij nu hier het heel erg naar je zin hebt, maar ik denk nou die Niels, die moet ik hebben.

552
00:30:57,779 --> 00:31:01,620
Weet je, dan wil ik denk Niels, dan wil ik wel weten hoe goed ik binnen Pera pas.

553
00:31:02,260 --> 00:31:05,220
Dus een kandidaat kun je ook daarmee inzicht geven.

554
00:31:05,540 --> 00:31:09,779
Pas jij binnen onze cultuur, pas jij binnen dit bedrijf.

555
00:31:09,500 --> 00:31:10,220
Oh mooi.

556
00:31:10,460 --> 00:31:12,700
En zie je dat vaak gebeuren bij organisaties?

557
00:31:12,780 --> 00:31:19,420
Want eigenlijk meten jullie wat zijn succesfactoren van mensen die al jaren werken of nieuwe mensen die binnen een organisatie binnenstromen?

558
00:31:20,140 --> 00:31:22,220
Geef je dat ook nou terug aan de mensen?

559
00:31:22,300 --> 00:31:26,300
In de zin van goh, als je hier in groeit en daarin groeit, dan zie je een betere match.

560
00:31:26,380 --> 00:31:33,580
Of zetten de organisaties dat op de voorgevel van wij zijn succesvol intern als je hier en hier aan bijdraagt?

561
00:31:33,840 --> 00:31:36,080
Nee, nee, dat niet.

562
00:31:36,320 --> 00:31:44,400
Maar wat wel zo is, is dat je dus, als je het intern bij medewerkers inzet, we werken nu ook samen met partners die bijvoorbeeld.

563
00:31:45,619 --> 00:31:47,540
gepersonaliseerde trainingen geven.

564
00:31:47,619 --> 00:31:52,499
Of een beetje, dat je je gedrag iedere dag, dat je van die korte gedragstesten doet.

565
00:31:52,580 --> 00:31:53,300
Of testen.

566
00:31:54,100 --> 00:31:55,300
Hoe noem je dat nou?

567
00:31:57,739 --> 00:32:02,619
Nou ja, laten zeggen learning and development, maar dat je dat op dagdagelijkse basis kunt doen.

568
00:32:03,100 --> 00:32:03,980
Continu leren en

569
00:32:05,100 --> 00:32:08,380
Nou ja, dus wat we proberen te doen is dan we geven dus data terug.

570
00:32:08,460 --> 00:32:11,580
En dan kun je dus ook aangeven van nou, dit is mijn.

571
00:32:13,380 --> 00:32:14,100
ambitie.

572
00:32:14,340 --> 00:32:21,540
Dit is waar ik op basis van onze data, waar je, zat je ambitie is, waar je dus eigenlijk nog verder in zou moeten trainen.

573
00:32:21,500 --> 00:32:27,340
En dan hebben we dus nu ook partners die daar dan gepersonaliseerde learning and development trajecten op aanbieden.

574
00:32:27,900 --> 00:32:31,020
Dus echt een softskill ontwikkeling, wat vaak wat minder tastbaar is.

575
00:32:31,260 --> 00:32:33,820
Wordt hiermee geholpen om tastbaar gepersonaliseerd.

576
00:32:33,779 --> 00:32:33,860
worden.

577
00:32:34,019 --> 00:32:36,580
Terwijl hard skills weet je gewoon ja dat daar is deze training voor.

578
00:32:36,980 --> 00:32:39,860
Ja, en dat heb je, daar heb je dus ook trainingen voor.

579
00:32:40,019 --> 00:32:42,500
En het mooie is dat je vervolgens door als je dan

580
00:32:42,960 --> 00:32:45,440
Als je die weer denkt over die feedback loops.

581
00:32:45,680 --> 00:32:49,680
Dat je dus ook op een datagedreven manier kunt gaan aantonen dat dat effect heeft.

582
00:32:50,159 --> 00:32:52,159
Dus dat die training ook effect sorteert.

583
00:32:52,239 --> 00:32:53,360
En dat mensen beter worden.

584
00:32:53,519 --> 00:32:55,040
En je moet je voorstellen dat.

585
00:32:56,480 --> 00:33:00,960
Performance in organisaties volgt niet een bel curve.

586
00:33:01,040 --> 00:33:02,080
Dat dachten we altijd.

587
00:33:02,240 --> 00:33:04,320
Dus vanuit de economie.

588
00:33:04,460 --> 00:33:08,700
Een paar mensen zijn heel goed, een paar mensen niet en de rest van ons bungelt in het midden.

589
00:33:08,860 --> 00:33:10,139
Maar het is een power law.

590
00:33:10,300 --> 00:33:14,860
Dus dat betekent eigenlijk dat 20% van de mensen ongeveer 60% van de output levert.

591
00:33:15,300 --> 00:33:23,860
Maar dat betekent ook dat als jij in staat bent intern om 1% te verschuiven, dat dat meteen aan output 2,5% oplevert.

592
00:33:24,180 --> 00:33:26,739
Dat is gewoon waarde voor je bedrijf.

593
00:33:26,660 --> 00:33:29,620
En dat bedoel ik met van een soort guesswork.

594
00:33:30,180 --> 00:33:34,420
En generieke trainingen, en we doen een cultuurtransitie, maar die blijft maar vaag.

595
00:33:34,660 --> 00:33:40,340
Dat je dat data gedreven maakt en daardoor veel effectiever bent in de interventie die je pleegt.

596
00:33:40,279 --> 00:33:46,519
Maar als je het daarover hebt, want net zei je van er zit nog een recruiter of een hiring manager zit ertussen.

597
00:33:46,680 --> 00:33:49,639
Voor een deel is dat misschien zelfs vervuiling van je data.

598
00:33:51,080 --> 00:33:52,840
Nou, die zitten niet in de dataset.

599
00:33:53,240 --> 00:33:59,000
Want we hebben uiteindelijk die medewerker bij de medewerker en de echte parking staat daar geëindigd.

600
00:33:59,400 --> 00:34:02,760
Dus we nemen nu niet meer de besluiten van de recruiter mee.

601
00:34:06,560 --> 00:34:07,440
Ja, perspectieven.

602
00:34:07,520 --> 00:34:10,880
En dit is een extra perspectief of meerdere perspectieven die hij mee kan nemen in de.

603
00:34:11,920 --> 00:34:13,920
Ja, maar je kan dus wel ook gaan doormeten.

604
00:34:14,239 --> 00:34:19,679
Stel dat recruiters mensen aannemen die bijvoorbeeld via ons digitale interview in de.

605
00:34:20,000 --> 00:34:21,360
.

606
00:34:20,040 --> 00:34:22,119
Laagste 20% scoorde.

607
00:34:22,440 --> 00:34:25,080
Je kan natuurlijk wel gaan doormeten hoe die mensen performen.

608
00:34:25,159 --> 00:34:27,080
Of dat ze sneller weggaan of niet.

609
00:34:27,399 --> 00:34:29,639
En stel dat het model het mis heeft.

610
00:34:29,699 --> 00:34:31,460
Dat je dat ook weer kan itereren.

611
00:34:31,540 --> 00:34:32,659
Dus dat je het kan aanpassen.

612
00:34:32,739 --> 00:34:34,420
Dat is het mooie weer aan die machine learning.

613
00:34:34,500 --> 00:34:37,860
Dat je die feedback loops kunt meenemen om dat model steeds slimmer te maken.

614
00:34:38,100 --> 00:34:40,500
Maar waar ik eigenlijk naartoe wilde is van.

615
00:34:41,639 --> 00:34:51,879
Kijk, die recruiter of de hiringmanager die kan een besluit nemen die hier tegenin gaat.

616
00:34:52,739 --> 00:34:56,580
Waarom, als het zo succesvol is, waarom zitten zij er nog tussen?

617
00:34:57,940 --> 00:35:00,019
Als je het ook volledig data gedreven zou kunnen?

618
00:35:01,239 --> 00:35:05,080
Omdat denk ik die verandering langzaam gaat.

619
00:35:05,560 --> 00:35:07,959
Het is een beetje, denk ik, van je stapt in een vliegtuig.

620
00:35:08,040 --> 00:35:10,199
En het is toch wel fijn dat er een piloot voor inzit.

621
00:35:10,600 --> 00:35:12,679
Terwijl een heel groot deel inmiddels.

622
00:35:13,220 --> 00:35:14,980
Ook op de automatische piloot.

623
00:35:15,460 --> 00:35:16,020
Zeker.

624
00:35:16,900 --> 00:35:20,900
Maar ook wel, denk ik, omdat de recruiter ook een andere functie heeft.

625
00:35:21,400 --> 00:35:35,160
Ik denk dat de recruiter van de toekomst, en dat zien we nu ook wel bij de bedrijven die we helpen, dat het niet alleen maar gaat over dat je die data ook echt inzet en kunt lezen en daar besluiten over neemt.

626
00:35:35,240 --> 00:35:43,399
Maar ook dat juist het menselijke aspect, bijvoorbeeld om uitleg te krijgen over het bedrijf of om je vragen te kunnen stellen.

627
00:35:43,540 --> 00:35:47,140
Of om een veel persoonlijkere onboarding te kunnen doen.

628
00:35:47,380 --> 00:35:52,260
Dat eigenlijk de tijd van die recruiter verschuift naar de dingen waar de interactie tussen mens.

629
00:35:52,840 --> 00:35:55,640
Van mens tot mens, eigenlijk nog belangrijker is.

630
00:35:56,680 --> 00:35:57,880
Dat snap ik heel goed.

631
00:35:58,040 --> 00:35:59,000
Ik ga gewoon een beetje.

632
00:36:01,080 --> 00:36:02,360
Ik ben een beetje aan het prikken.

633
00:36:03,400 --> 00:36:04,440
Maar het gaat om dat besluit.

634
00:36:04,520 --> 00:36:06,520
Weet je, neem je iemand wel of niet aan.

635
00:36:06,640 --> 00:36:08,240
Dat is nu zo data gedreven.

636
00:36:08,640 --> 00:36:14,960
Wat voeg dan eigenlijk die recruiter eraan toe in het nemen van het besluit?

637
00:36:17,080 --> 00:36:20,440
Ik denk een weging maken op verschillende inputdata.

638
00:36:20,920 --> 00:36:22,440
Ik weet wat jij mij wil laten zien.

639
00:36:22,600 --> 00:36:23,320
Nee, helemaal niet.

640
00:36:23,400 --> 00:36:24,680
Nee, het gaat er echt om.

641
00:36:29,639 --> 00:36:37,879
Nou, kijk, natuurlijk hebben we voorbeelden waar je soms zou hopen dat er niet per se een human in de loop zat.

642
00:36:38,720 --> 00:36:40,320
Er zijn echt voorbeelden wel.

643
00:36:40,480 --> 00:36:44,080
En gelukkig kunnen we dat dan ook op een datagedreven manier aantonen.

644
00:36:44,480 --> 00:36:48,640
Tegelijkertijd ben ik er wel een voorstander van om die human in de loop te houden.

645
00:36:48,800 --> 00:36:50,400
Omdat ik denk dat er één.

646
00:36:52,200 --> 00:36:52,840
Ook nog.

647
00:36:53,320 --> 00:36:59,080
Wat ik net aangaf, er zit gewoon een heel belangrijk menselijk aspect, zeker in zo'n recruitmentproces.

648
00:36:59,320 --> 00:37:03,480
En ik denk dat alleen wat je wil voorkomen, is dat.

649
00:37:03,899 --> 00:37:13,020
Mensen worden geselecteerd op basis van voordelen en persoonlijke voorkeuren van een recruiter.

650
00:37:13,260 --> 00:37:17,260
En we weten gewoon ook daarin uit de praktijk dat.

651
00:37:17,720 --> 00:37:20,120
Die gestructureerde interviews kun je doen.

652
00:37:20,360 --> 00:37:24,920
Maar die kosten heel veel tijd, dus heel weinig bedrijven doen ze.

653
00:37:25,200 --> 00:37:31,360
En dus zie je gewoon dat die bias er heel erg insluipt en daarmee dus niet de juiste beslissingen worden genomen.

654
00:37:31,520 --> 00:37:32,960
Dus ik wil dat vooral voorkomen.

655
00:37:33,200 --> 00:37:36,720
Kijk, en binnen de Europese context, laten we eerder eerlijk zijn.

656
00:37:36,940 --> 00:37:37,740
Kan het ook niet.

657
00:37:40,460 --> 00:37:45,100
Dus we willen zorgen dat daar die human in the loop, maar die human in the loop gaat wel.

658
00:37:45,960 --> 00:37:52,360
Ik denk wel dat het karakter, niet het karakter, maar de baan die diegene doet verandert wel.

659
00:37:52,760 --> 00:37:54,600
En dat is maar goed ook, denk ik.

660
00:37:54,840 --> 00:37:57,480
Ja, want dan gaat het niet meer om mensen die binnenkomen.

661
00:37:57,560 --> 00:38:03,400
Maar wat is de effect en de impact later en de hele reis in plaats van alleen maar met de start van de reis te maken hebben?

662
00:38:03,800 --> 00:38:04,200
Precies.

663
00:38:04,600 --> 00:38:07,480
Wat zou je nog, wat wordt de volgende stap?

664
00:38:08,040 --> 00:38:09,560
Hierin, voor jullie?

665
00:38:10,679 --> 00:38:12,520
Nou ja, wij zijn eigenlijk.

666
00:38:13,000 --> 00:38:15,959
Mijn visie is altijd geweest dat het.

667
00:38:19,379 --> 00:38:25,459
dat in heel veel verschillende sectoren gedrag van mensen van invloed is op het resultaat.

668
00:38:25,400 --> 00:38:29,080
Denk bijvoorbeeld aan de gezondheidszorg, waar patiëntengedrag.

669
00:38:30,040 --> 00:38:34,280
Waarom stopt iemand wel of niet met een bepaald behandelplan?

670
00:38:34,340 --> 00:38:42,100
Of in de financiële sector, waarom pleeg de een wel fraude en de ander niet?

671
00:38:42,240 --> 00:38:54,159
Heel veel van die aspecten, waarom is het terug naar educatie, waarom zien we across the board dat in bacheloropleidingen 53% van de studenten stopt, vroegtijdig stopt met studeren.

672
00:38:54,580 --> 00:39:00,020
Heeft allemaal met gedragselementen, persoonlijkheid en intentie te maken.

673
00:39:00,100 --> 00:39:04,740
En die kunnen wij dus voorspellen, doordat we jarenlang data hebben opgehaald in HR.

674
00:39:04,900 --> 00:39:18,420
Dus voor ons is de volgende stap, en daar zijn we nu mee bezig, om bijvoorbeeld in de financiële industrie te kijken, kunnen we voorspellen wie er wel of niet een lening terugbetaalt, kunnen we voorspellen wie er wel of niet fraude gaat plegen, bovenop de econometristische modellen.

675
00:39:18,740 --> 00:39:22,260
Die er al zijn, waar alleen maar naar financiële data wordt gekeken.

676
00:39:22,580 --> 00:39:25,699
Dus voor ons is vooral een verbrede IP-strategie.

677
00:39:25,780 --> 00:39:28,100
Dus we kunnen eigenlijk dat wat we hebben opgebouwd.

678
00:39:28,780 --> 00:39:31,260
op een goede manier inzetten in meerdere sectoren.

679
00:39:31,500 --> 00:39:34,780
Ik vind die gezondheidszorg is natuurlijk wel buitengewoon interessant.

680
00:39:35,420 --> 00:39:36,459
Want het blijkt.

681
00:39:36,840 --> 00:39:49,480
Ik heb weleens vaker met medische bedrijven gesproken dat onze discipline om dingen op te volgen, zowel je behandelplan als het innemen van je medicijn en dat soort zaken, dat schijnt gewoon een enorm probleem te zijn.

682
00:39:36,939 --> 00:39:37,020
.

683
00:39:49,560 --> 00:39:50,200
Dus echt.

684
00:39:51,220 --> 00:39:58,100
Ruim boven de 50% van de mensen volgt uiteindelijk gewoon niet zijn behandelplan.

685
00:39:58,740 --> 00:40:00,580
En dat vind ik ook wel het mooie van AI.

686
00:40:00,740 --> 00:40:01,940
Kijk, AI kan.

687
00:40:02,140 --> 00:40:05,180
Patronen herkennen die wij niet zien op het buiten oog.

688
00:40:05,260 --> 00:40:07,100
En dat is natuurlijk wat we gebouwd hebben.

689
00:40:07,340 --> 00:40:09,100
Maar het kan ook personaliseren.

690
00:40:09,180 --> 00:40:10,460
En ik denk dat als je.

691
00:40:10,860 --> 00:40:13,900
dat gedrag beter in kaart hebt, bijvoorbeeld als een arts.

692
00:40:14,060 --> 00:40:14,780
Waardoor je.

693
00:40:15,020 --> 00:40:15,260
.

694
00:40:15,260 --> 00:40:15,420
.

695
00:40:15,420 --> 00:40:20,460
En je weet ook nog eens wat de voorkeuren zijn waarop je iemand moet benaderen.

696
00:40:20,460 --> 00:40:21,420
Dan kun je natuurlijk.

697
00:40:21,340 --> 00:40:24,700
Ook nog eens je communicatie personaliseren.

698
00:40:25,500 --> 00:40:30,940
En daarmee uiteindelijk het succes, namelijk zorg dat iemand wel in dat behandelplan blijft, vergroten.

699
00:40:31,580 --> 00:40:34,140
Dat doen we binnen HR, maar dat zijn we dus nu aan het doen.

700
00:40:34,300 --> 00:40:37,340
Dus voor ons is de volgende stap om dat echt te verbreden naar andere sectoren.

701
00:40:38,060 --> 00:40:39,740
Datagedreven gedragssupport.

702
00:40:40,060 --> 00:40:40,540
Wat zeg je?

703
00:40:40,780 --> 00:40:42,459
Datagedreven gedragssupport.

704
00:40:43,179 --> 00:40:45,260
Dat is echt ondersteunen, inderdaad, van waarom het is.

705
00:40:45,340 --> 00:40:47,420
En discipline, ik denk dat dat echt een van de.

706
00:40:47,980 --> 00:40:56,460
Van de belangrijke succesfactoren zijn een stuk discipline op kunnen bouwen en te weten wat je wel wil doen en moet doen of wanneer je voor jezelf ervan afwijkt.

707
00:40:56,620 --> 00:40:57,500
Ja, precies.

708
00:40:57,960 --> 00:41:04,040
Dat zou je dus kunnen onderzoeken, of dat zo is, is het discipline dat ertoe leidt, of zijn het eigenlijk altijd alle dingen.

709
00:41:05,800 --> 00:41:07,000
Dat doet mijn data hard goed hoor.

710
00:41:11,480 --> 00:41:12,600
Ik ben ervan benieuwd.

711
00:41:12,760 --> 00:41:17,560
Welke vraag hebben wij nou nog niet gesteld aan jou, die je wel heel graag kwijt wil?

712
00:41:18,220 --> 00:41:19,420
Nou ja, ik ben ook al.

713
00:41:19,580 --> 00:41:22,140
Jullie doen natuurlijk zelf heel veel AI-projecten.

714
00:41:22,300 --> 00:41:26,300
Dus ik denk dat een van de.

715
00:41:27,500 --> 00:41:29,580
Wat ik eerder al zei, van ik denk dat.

716
00:41:29,740 --> 00:41:34,620
Veel bedrijven hebben het de hele tijd over, als ze het over AI hebben, over Gen AI.

717
00:41:35,500 --> 00:41:39,419
Ik denk zelf dat er heel veel waarde ligt in die narrow AI modellen.

718
00:41:39,500 --> 00:41:39,980
Die dus.

719
00:41:40,240 --> 00:41:47,919
Waar je op basis van specifieke datasets hele specifieke problemen oplost.

720
00:41:50,220 --> 00:41:57,100
Tegelijkertijd was er recentelijk ook dat MIT rapport, waaruit bleek dat 60% van de bedrijven AI wel implementeert.

721
00:41:57,180 --> 00:41:59,020
Gaat dus vaak weer over Gen AI.

722
00:41:59,000 --> 00:42:02,840
Maar dat maar 5% daar echt businesswaarde uit krijgt.

723
00:42:02,919 --> 00:42:05,719
En dat dat vooral komt doordat ze werken met partners.

724
00:42:06,040 --> 00:42:07,399
Die dus begrijpen hoe het werkt.

725
00:42:07,639 --> 00:42:09,240
Dus specifieke partners.

726
00:42:09,879 --> 00:42:12,679
En ik denk als dat zo is.

727
00:42:13,620 --> 00:42:16,420
Waarom gaat het dan in Nederland niet sneller?

728
00:42:16,740 --> 00:42:21,699
Weet je, wat hebben we nodig om voor een versnelling te zorgen van adoptie?

729
00:42:22,020 --> 00:42:23,860
Want we hebben gewoon een probleem in Nederland.

730
00:42:23,939 --> 00:42:27,380
We hebben een probleem op productiviteit en dat is een Europees probleem.

731
00:42:27,939 --> 00:42:31,380
En onze workforce gaat alleen maar afnemen.

732
00:42:31,540 --> 00:42:33,060
De vergrijzing wordt groter.

733
00:42:33,459 --> 00:42:36,179
Dus we zullen moeten versnellen op de een of andere manier.

734
00:42:36,260 --> 00:42:38,900
En tegelijkertijd gaan bijna alle gesprekken over.

735
00:42:39,500 --> 00:42:41,580
Risico over Gen AI over.

736
00:42:42,220 --> 00:42:47,180
Dus mijn vraag zou vooral zijn: wat is jullie best practice en hoe je dingen versnelt?

737
00:42:47,820 --> 00:42:51,100
Oeh, dat is best heel erg moeilijk, want wij lopen hier natuurlijk ook tegenaan.

738
00:42:51,419 --> 00:42:52,540
Dus ik ben het helemaal met je eens.

739
00:42:52,780 --> 00:43:00,219
Wat we zien is als er nu initiatieven worden opgestart, gaat het over ChatGPT adoptie of Copilot adoptie, dat soort zaken.

740
00:43:00,140 --> 00:43:09,580
Als je het dan over onderzoeken hebt, dus er is een onderzoek gedaan onder kenniswerkers in Denemarken, dat je ongeveer 3% aan productiviteit

741
00:43:09,620 --> 00:43:11,540
Haalt uit dit soort tooling.

742
00:43:11,939 --> 00:43:14,020
Omdat het nog in de persoonlijke workflow zit.

743
00:43:14,179 --> 00:43:16,179
Dus we zijn heel erg bezig op dit moment.

744
00:43:16,340 --> 00:43:18,260
Als de investeringen worden gedaan.

745
00:43:18,440 --> 00:43:22,120
hoe iedereen individueel dit soort tools inzet.

746
00:43:23,000 --> 00:43:28,200
Dus er wordt minder gekeken naar hoe zij zetten we het in in de bedrijfskritische processen.

747
00:43:28,280 --> 00:43:31,000
Want daar is veel meer winst te halen.

748
00:43:32,100 --> 00:43:36,180
En daar zien we dat het echt wel blijft steken in proof of concepts.

749
00:43:36,500 --> 00:43:39,140
Als we dat al doen, blijft het proof of concept.

750
00:43:40,280 --> 00:43:42,040
Maar waarom blijft het dan steken?

751
00:43:42,600 --> 00:43:44,520
Voor mij is dat tweeledig.

752
00:43:44,680 --> 00:43:48,120
Eén is dat het in een silo blijft hangen van innovatie.

753
00:43:48,360 --> 00:43:51,880
Dan is er een innovatiemanager die heeft een taak gekregen.

754
00:43:52,080 --> 00:43:55,040
En dan is de innovaties aangetoond dat het zou kunnen.

755
00:43:55,280 --> 00:43:58,000
En dan moet het dus naar een andere budgethouder.

756
00:43:58,160 --> 00:44:03,760
En dan krijg je alle gedoe rondom wie gaat dit betalen, welke mensen krijgen we vrij.

757
00:43:03,840 --> 00:44:05,760
En dan gaat het dus eigenlijk naar iemand.

758
00:44:05,840 --> 00:44:06,160
Anders.

759
00:44:06,560 --> 00:44:07,280
Naar iemand anders.

760
00:44:07,360 --> 00:44:09,840
En die moeten er dan tijd en ruimte voor maken.

761
00:44:10,160 --> 00:44:13,120
En wat je ziet is dat het in de operatie verdwijnt.

762
00:44:13,200 --> 00:44:18,000
Dus dat ze het wel willen, maar er zijn natuurlijk zoveel operationele taken.

763
00:44:18,480 --> 00:44:20,159
Dat we daarmee bezig blijven.

764
00:44:20,399 --> 00:44:27,120
Iedereen kent denk ik wel het plaatje van die mensen die zo'n kar met vierkante wielen aan het voorttrekken zijn.

765
00:44:27,360 --> 00:44:30,000
Wij zijn degene die zeggen van ja, hier heb je dat ronde wiel.

766
00:44:30,080 --> 00:44:32,000
En zeggen, ja, maar we zijn te druk.

767
00:44:32,040 --> 00:44:41,480
En dat zien we nog heel veel, dat toch dat gevoel van urgentie die jij net geeft, dat die eigenlijk niet echt gevoeld wordt.

768
00:44:42,880 --> 00:44:51,600
Ja, en als aanvulling erop inderdaad van we zien een individu, toepassing en we willen dat naar teamniveau en dat is nog best wel uitdagend soms.

769
00:44:51,640 --> 00:44:53,560
Om die maturity stap goed te maken met elkaar.

770
00:44:53,640 --> 00:44:55,960
Want dan ga je het in de teamdynamiek moeten oppakken.

771
00:44:56,040 --> 00:44:57,240
En dan AI toepassen.

772
00:44:57,320 --> 00:44:59,800
En daar zijn best wel wat uitdagingen in om dat.

773
00:44:59,959 --> 00:45:00,760
voor elkaar te krijgen.

774
00:45:00,040 --> 00:45:00,360
.

775
00:45:00,920 --> 00:45:06,600
Heel vaak zitten op de individuele efficiëntie, productiviteit, werkgemak en die sfeer.

776
00:45:06,760 --> 00:45:07,800
En die stap naar

777
00:45:07,940 --> 00:45:10,180
Team, die is nog wel uitdagend.

778
00:45:10,260 --> 00:45:14,580
Dan moet je met elkaar afspraken maken, dat gaat niet meer over hoe jij werkt, maar hoe je met elkaar werkt, hoe je processen werkt.

779
00:45:14,660 --> 00:45:15,460
En eigenlijk

780
00:45:15,500 --> 00:45:18,060
Dat is het derde punt dat is belangrijk, is weer naar de processen te gaan.

781
00:45:18,139 --> 00:45:20,300
Wat zijn naar de processen die binnen de organisaties lopen?

782
00:45:20,379 --> 00:45:21,260
Hebben we die helder?

783
00:45:21,500 --> 00:45:23,020
Moeten we die hetzelfde houden?

784
00:45:23,280 --> 00:45:24,800
Dat hebben we eerder in de podcast ook genoemd.

785
00:45:25,040 --> 00:45:27,520
Misschien moeten we hele processen gaan redesignen.

786
00:45:25,100 --> 00:45:25,340
Dat

787
00:45:28,240 --> 00:45:29,600
En dat zijn stappen.

788
00:45:29,840 --> 00:45:30,880
Dat is ook een reis.

789
00:45:31,560 --> 00:45:35,080
We hopen soms dat we die reis met een sprong naar voren kunnen maken.

790
00:45:35,160 --> 00:45:37,160
Maar soms moeten mensen die reis ook wel zelf maken.

791
00:45:37,400 --> 00:45:43,880
En daarin hopen we ook in deze podcast al mee te nemen in die reis die er nodig is, zodat we dadelijk kunnen versnellen in de praktijk.

792
00:45:44,760 --> 00:45:47,160
En we hebben er ook wel een adoptieprogramma voor.

793
00:45:49,560 --> 00:45:55,000
Dat je mensen ook mee laat denken in hoe ze dingen kunnen veranderen.

794
00:45:55,380 --> 00:45:57,300
Maar het is echt nog wel lastig.

795
00:45:57,380 --> 00:46:02,980
En zeker, je zei net zelf al, de strategische managers, weet je.

796
00:46:03,700 --> 00:46:05,700
Wie blijft er nou echt bovenop zitten?

797
00:46:06,340 --> 00:46:10,580
Het is zo makkelijk om weer naar het volgende te stappen en daar je energie in te stoppen.

798
00:46:11,300 --> 00:46:12,260
Nou ja, precies.

799
00:46:12,340 --> 00:46:13,140
Ik denk dat het.

800
00:46:13,340 --> 00:46:15,900
Mijn ervaring leert dat het een aantal elementen zit.

801
00:46:13,460 --> 00:46:14,100
.

802
00:46:15,980 --> 00:46:19,740
Dus de bedrijven die het heel goed doen, die herkennen.

803
00:46:19,900 --> 00:46:23,260
En ik moet zeggen, daar helpen we ze ook wel bij om echt een business case te maken.

804
00:46:23,340 --> 00:46:23,980
Ja, doe je ook.

805
00:46:24,140 --> 00:46:25,260
Van wat is je return on investment?

806
00:46:25,580 --> 00:46:26,060
Precies.

807
00:46:25,780 --> 00:46:28,420
Als je dat niet kan hebben, nee.

808
00:46:28,500 --> 00:46:34,020
Dus als jij, weet ik veel, 3 miljoen, dus 10% hogere omzet kunt gaan halen.

809
00:46:35,060 --> 00:46:40,500
En dat kunnen we in een maand in ieder geval aantonen dat die 10% daarin zit.

810
00:46:42,820 --> 00:46:43,620
Dat is interessant.

811
00:46:43,780 --> 00:46:47,780
Dus het één al gewoon een, en dat is zeker voor HR nieuw, eigenlijk.

812
00:46:48,120 --> 00:46:52,520
Ervoor te zorgen dat die business case er is, die je ook in een management team kan bespreken.

813
00:46:52,840 --> 00:46:57,560
Zodat iets wat we cultuur noemen of skills, dat dat niet vaag blijft.

814
00:46:57,600 --> 00:46:59,600
Maar dat dat waarde creëert.

815
00:46:59,920 --> 00:47:00,720
Dus dat is al één.

816
00:47:00,960 --> 00:47:06,400
Twee is inderdaad dat leiderschap, dat het niet gedelegeerd wordt, maar dat het echt een strategisch onderwerp is.

817
00:47:07,139 --> 00:47:08,500
Ook in de implementatie.

818
00:47:08,659 --> 00:47:14,580
Ja, drie is dat we gezien hebben dat we dat je ook patronen ziet in natuurlijk teams die innovatiever zijn dan anderen.

819
00:47:15,139 --> 00:47:20,419
Dus zorgen dat je die skills, weet je, dat je daar een soort map hebt, een soort.

820
00:47:20,820 --> 00:47:23,459
Blauwprint van wat is je huidige organisatie.

821
00:47:23,620 --> 00:47:26,100
Dus dat je ook weet of je de juiste mensen hebt.

822
00:47:26,419 --> 00:47:28,340
En soms is het ook nog wel eens dat je dat.

823
00:47:28,500 --> 00:47:32,020
En het vierde aspect is wel voor dat opschalen, is dan dat het.

824
00:47:32,159 --> 00:47:40,159
Dat je je methode makkelijk kunt integreren met een bestaande met bestaande systemen.

825
00:47:40,560 --> 00:47:45,120
Dus veel van onze bedrijven gebruiken applicant tracking systemen of HM-systemen.

826
00:47:45,640 --> 00:47:47,960
Dat onze technologie daar heel makkelijk in past.

827
00:47:48,440 --> 00:47:50,600
Als dat niet zo is, wordt het meteen ingewikkelder.

828
00:47:50,760 --> 00:47:51,080
Snap ik.

829
00:47:51,320 --> 00:47:52,040
Bij dat opschalen.

830
00:47:52,200 --> 00:47:55,960
Dus er zitten echt heel veel aspecten wel in om dat om dat goed te kunnen doen.

831
00:47:56,200 --> 00:47:57,240
En mooie tips.

832
00:47:57,640 --> 00:48:00,840
Ik denk dat we het verhaal denk ik behoorlijk rond.

833
00:48:01,000 --> 00:48:01,960
Heel erg dankjewel.

834
00:48:02,760 --> 00:48:08,200
Eigenlijk heb je ons meegenomen van het begin van je sollicitatie naar waar je nu staat en alles ertussenin.

835
00:48:08,280 --> 00:48:08,600
Dankjewel.

836
00:48:08,760 --> 00:48:09,240
Graag gedaan.

837
00:48:09,640 --> 00:48:10,360
Dankjewel.

838
00:48:11,379 --> 00:48:14,500
Fijn dat je weer luisterde naar deze aflevering van AIToday Live.

839
00:48:14,580 --> 00:48:15,540
Vergeet je niet te favorieten.

840
00:48:15,699 --> 00:48:16,820
Zo, niet te favorieten.

841
00:48:19,880 --> 00:48:22,840
Vergeet je niet zo dan wat een gedoe, zeg.

842
00:48:23,160 --> 00:48:25,800
En we hebben ook natuurlijk onze nieuwsbrief.

843
00:48:26,040 --> 00:48:27,560
Link staat in de show notes.

844
00:48:27,720 --> 00:48:29,960
En daar vind je exclusieve content.

845
00:48:31,580 --> 00:48:33,820
Abonneer je, tot de volgende keer hoor.

846
00:48:33,899 --> 00:48:35,100
Tot de volgende keer.