AIToday Live

S06E89 - De toekomst van onderwijs met AI met Barend Last

Aigency by Info Support Season 6 Episode 89

Barend Last, onderwijsadviseur en auteur, bespreekt in deze aflevering de rol van AI in het onderwijs. Hij benadrukt dat AI het onderwijs uitdaagt om na te denken over zijn fundamentele doelen en methoden.

Last belicht de kansen die AI biedt voor gepersonaliseerd onderwijs en onderzoekt hoe het de traditionele onderwijsmethoden uitdaagt. Hij gaat in op de ethische aspecten van AI-gebruik in het onderwijs en geeft praktische tips voor docenten die willen experimenteren met deze technologie.

De belangrijkste onderwerpen in deze aflevering zijn:

  • De impact van generatieve AI op het onderwijs
  • De rol van technologie in de ontwikkeling van leerlingen en studenten
  • Verschillende opvattingen over de functie van onderwijs
  • Het belang van creativiteit en leesmotivatie bij kinderen
  • De verantwoordelijkheid van docenten en leerlingen in het gebruik van AI

Links

Genoemde organisaties, personen en bedrijven: Fontys - onderwijssector - ChatGPT - Midjourney - AI-tutor - Sam Altman

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,001 --> 00:00:06,000
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

2
00:00:06,000 --> 00:00:09,880
Met vandaag AI in het onderwijs zal het heel veel worden.

3
00:00:09,880 --> 00:00:12,680
Maar ik denk niet alleen in het onderwijs.

4
00:00:12,680 --> 00:00:18,240
Ik denk dat er best heel veel langskomt wat je sowieso kan gebruiken in je werk,

5
00:00:18,240 --> 00:00:20,240
in je dagelijks leven, ga ik maar eventjes vanuit.

6
00:00:20,240 --> 00:00:22,720
Mijn naam is Joop Snijder, CTO bij Aigency.

7
00:00:22,720 --> 00:00:25,800
Mijn naam Niels Naglé, Area Lead, Data&AI bij Info Support.

8
00:00:25,800 --> 00:00:28,280
En we hebben te gast Barend Last.

9
00:00:28,280 --> 00:00:31,280
Barend, fijn dat je bij ons in de studio wilde komen.

10
00:00:31,280 --> 00:00:32,280
Dank voor de uitnodiging.

11
00:00:32,280 --> 00:00:37,000
Ja, ik zag heel veel van jou voorbijkomen over AI in het onderwijs op LinkedIn.

12
00:00:37,000 --> 00:00:38,280
Daar ben je nogal actief.

13
00:00:38,280 --> 00:00:41,680
Zou je jezelf eerst even willen voorstellen aan onze luisteraars?

14
00:00:41,680 --> 00:00:42,680
Zeker.

15
00:00:42,680 --> 00:00:48,880
Mijn naam is Barend Last en ik werk als onderwijsadviseur, docent, spreker en auteur.

16
00:00:48,880 --> 00:00:51,600
En dat doe ik eigenlijk in alle lagen van het onderwijs.

17
00:00:51,600 --> 00:00:53,720
Mijn roots liggen in het basisonderwijs.

18
00:00:53,720 --> 00:00:56,640
Dus ik ben eigenlijk opgeleid als basisschoolleraar.

19
00:00:56,640 --> 00:00:59,000
Later doorgestroomd naar het hoger onderwijs.

20
00:00:59,000 --> 00:01:01,960
En daar hou ik me eigenlijk mee bezig.

21
00:01:01,960 --> 00:01:02,960
Leuk.

22
00:01:02,960 --> 00:01:03,960
En waar doseer je nu?

23
00:01:03,960 --> 00:01:06,360
Ik doseer eigenlijk nu veelal op verschillende plekken.

24
00:01:06,360 --> 00:01:10,200
Dus dan gaat het over bijvoorbeeld een workshop aan docenten in het hbo en dan weer in het

25
00:01:10,200 --> 00:01:12,520
vo en dan weer in het po.

26
00:01:12,520 --> 00:01:15,400
Ik focus me ook vaak op managementlaag.

27
00:01:15,400 --> 00:01:18,640
Dus bijvoorbeeld gaat het om implementatievraagstukken van technologie in het onderwijs.

28
00:01:18,640 --> 00:01:22,080
Dus ik heb geen vaste groep waar ik voor sta.

29
00:01:22,080 --> 00:01:23,880
Ik soms doe wel eens langere trajecten.

30
00:01:23,880 --> 00:01:27,760
Maar op opdrachtbasis.

31
00:01:27,760 --> 00:01:28,760
Ja, precies.

32
00:01:28,760 --> 00:01:29,760
Oké, leuk.

33
00:01:29,760 --> 00:01:33,040
Nou, en je zegt technologie nu in het onderwijs.

34
00:01:33,040 --> 00:01:37,360
Dat is sinds november 2022 denk ik wel een dingetje geworden.

35
00:01:37,360 --> 00:01:42,080
Ja, nou ja, in ieder geval wel een specifieke technologie in het onderwijs.

36
00:01:42,080 --> 00:01:43,080
Ja, toch?

37
00:01:43,080 --> 00:01:47,840
In mijn boek over technologie in het onderwijs kaart ik technologie namelijk als heel breed.

38
00:01:47,840 --> 00:01:48,840
Dus het zijn hulpmiddelen.

39
00:01:48,840 --> 00:01:51,440
Digitaal, analoog en alles daartussenin.

40
00:01:51,440 --> 00:01:57,000
En sinds, ja wat je zegt, november 2022 is er generatieve kunstmatige intelligentie bij

41
00:01:57,000 --> 00:01:58,000
gekomen.

42
00:01:58,000 --> 00:02:01,880
En dat betekent dat we weer opnieuw een soort van samenhang moeten vinden met alles wat

43
00:02:01,880 --> 00:02:03,160
we doen in het onderwijs.

44
00:02:03,160 --> 00:02:05,320
Ja, en hoe sta jij daarin?

45
00:02:05,320 --> 00:02:06,800
Hoe sta ik daarin?

46
00:02:06,800 --> 00:02:11,560
Nou ja, ik vind generatieve AI zie ik als een systeemtechnologie.

47
00:02:11,560 --> 00:02:15,720
In die zin dat het echt flinke impact zal hebben op de wereld, samenleving noem maar

48
00:02:15,720 --> 00:02:16,720
op.

49
00:02:16,720 --> 00:02:20,360
En dus ook een bepaalde mate van disruptief karakter heeft.

50
00:02:20,360 --> 00:02:22,280
Dat zet soms een systeem op zijn kop.

51
00:02:22,280 --> 00:02:26,040
Vroeger hadden we videotheken, die hebben we niet meer, want Netflix heeft het overgenomen.

52
00:02:26,040 --> 00:02:30,160
Nou, die kracht kan AI ook hebben in het onderwijs.

53
00:02:30,160 --> 00:02:33,960
En dan met name rondom, doen we wel de goede dingen?

54
00:02:33,960 --> 00:02:35,520
En zijn die dingen niet achterhaald?

55
00:02:35,520 --> 00:02:39,600
Bijvoorbeeld, kun je nog wel van een leerling vragen om een opstel thuis te schrijven?

56
00:02:39,600 --> 00:02:41,440
Is dat nog wel van deze tijd?

57
00:02:41,440 --> 00:02:43,600
Was het überhaupt een goede toetsvorm?

58
00:02:43,600 --> 00:02:48,560
En AI dwingt eigenlijk om daarover na te denken en terug te gaan naar, wat was je ook weer?

59
00:02:48,560 --> 00:02:50,400
Wat was het doel dat we willen bereiken?

60
00:02:50,400 --> 00:02:52,920
En hoe kunnen we dat op de beste manier bereiken?

61
00:02:52,920 --> 00:02:55,600
Was het een goed leerdoel dan?

62
00:02:55,600 --> 00:02:57,520
Nou, ik vind het persoonlijk van niet.

63
00:02:57,520 --> 00:02:59,120
Nee, een goede toetsvorm was het niet.

64
00:02:59,120 --> 00:03:02,320
Het is een heel goed leerdoel om iemand te leren schrijven.

65
00:03:02,320 --> 00:03:04,560
En het is ook een heel goed leerdoel om iemand zich te leren uitdrukken.

66
00:03:04,560 --> 00:03:10,160
Maar ik vraag me af of thuis een opstel schrijven op dit moment een hele goede, valide toetsvorm is.

67
00:03:10,160 --> 00:03:14,560
Niet zozeer omdat de leerling kan frauderen, want ik geloof niet zo in dat ze frauderen.

68
00:03:14,560 --> 00:03:17,440
Ze vertonen gewoon gedrag waartoe wij ze aanzetten.

69
00:03:17,440 --> 00:03:20,960
Als jij een opstel thuis moet schrijven en je hebt allemaal hulpmiddelen, dan ga je dat doen.

70
00:03:20,960 --> 00:03:23,760
En dat hulpmiddel had ook je moeder of je vader kunnen zijn.

71
00:03:23,760 --> 00:03:25,280
Dus het is ook niet nieuw.

72
00:03:25,280 --> 00:03:28,240
Er zijn allemaal bedrijven die je kunt inhuren om je scriptie voor je te schrijven.

73
00:03:28,240 --> 00:03:31,920
Ik ben eigenlijk wel blij dat AI een beetje zo'n duwtje in de rug geeft.

74
00:03:31,920 --> 00:03:36,320
En docenten eigenlijk dwingt om terug te gaan naar die fundamentele vraag, waartoe zijn wij hier op aard?

75
00:03:36,320 --> 00:03:38,960
En waar zijn we voor op aard?

76
00:03:38,960 --> 00:03:42,680
Dan ga je het hebben over de opvatting over de functie van onderwijs.

77
00:03:42,680 --> 00:03:44,640
Wat vind jij? Waarvoor is onderwijs?

78
00:03:44,640 --> 00:03:48,960
Oeh, zo! Dat is een hele goeie!

79
00:03:48,960 --> 00:03:53,600
Sowieso om je te ontwikkelen, kennis opdoen, vaardigheden.

80
00:03:53,600 --> 00:03:57,120
Dus je hebt natuurlijk basisvaardigheden, rekenen, schrijven, lezen.

81
00:03:57,120 --> 00:03:59,520
En jezelf ontplooien.

82
00:03:59,520 --> 00:04:01,280
Dus het gaat heel erg om jezelf ontplooien.

83
00:04:01,280 --> 00:04:02,640
Jezelf ontwikkelen.

84
00:04:02,640 --> 00:04:05,760
Maar waartoe leidt dat? Of gaat het puur om jezelf?

85
00:04:05,760 --> 00:04:09,200
Nee, om in de maatschappij een bijdrage te kunnen gaan leveren.

86
00:04:09,200 --> 00:04:10,560
Oké, dus dat is ook een opvatting.

87
00:04:10,560 --> 00:04:12,400
Je hoort nu al twee interessante opvattingen.

88
00:04:12,400 --> 00:04:16,720
In de literatuur over onderwijs zijn dit twee grote stromingen.

89
00:04:16,720 --> 00:04:18,880
Het gaat heel erg om voorbereiden op de samenleving.

90
00:04:18,880 --> 00:04:20,560
Meedraaien in de economie.

91
00:04:20,560 --> 00:04:24,640
Aan de andere kant kun je ook zeggen, het gaat vooral om jezelf ontwikkelen, ontplooien en een goed leven leiden.

92
00:04:24,640 --> 00:04:26,160
Wat dat ook mogen zijn.

93
00:04:26,160 --> 00:04:28,720
En eigenlijk zijn er nog meer van dit soort stromingen.

94
00:04:28,720 --> 00:04:33,760
En afhankelijk van welke stroming je eigenlijk hanteert, ziet het onderwijs er anders uit.

95
00:04:33,760 --> 00:04:37,600
Er zijn bijvoorbeeld scholen die heel strak zitten op basisvaardigheden.

96
00:04:37,600 --> 00:04:40,000
Want je moet straks in de samenleving meedraaien.

97
00:04:40,000 --> 00:04:45,120
Dus we gaan jou heel veel leren en we gaan allemaal lessen geven en ik ga allemaal leerdoelen bedenken en ik timmer dat helemaal dicht.

98
00:04:45,120 --> 00:04:48,000
Daar is AI een grote bedreiging.

99
00:04:48,000 --> 00:04:54,560
Want dat zijn de scholen waar je heel veel huiswerk krijgt, heel veel verplichtingen hebt, heel veel opdrachten moet doen, die worden opgelegd.

100
00:04:54,560 --> 00:05:00,640
Andere opvattingen, bijvoorbeeld die veel meer vanuit het ontplooien denken, die werken helemaal niet met een curriculum.

101
00:05:00,640 --> 00:05:01,600
Die hebben geen programma.

102
00:05:01,600 --> 00:05:04,400
Er zijn zelfs scholen die gewoon zeggen, oké, wat wil jij leren?

103
00:05:04,400 --> 00:05:05,920
En dat is niet vrijblijvend.

104
00:05:05,920 --> 00:05:09,520
In die omgeving is AI eigenlijk helemaal geen bedreiging.

105
00:05:09,520 --> 00:05:13,200
Want als je daar met AI gaat werken, ja, er is geen toets die jou wordt opgelegd.

106
00:05:13,200 --> 00:05:17,680
Dus heb je ook geen incentive om met een toets vals te gaan spelen te zaakjes met AI.

107
00:05:17,680 --> 00:05:21,520
En dan wordt het eerder een hulpmiddel die je kan helpen bij je ontplooiing.

108
00:05:21,520 --> 00:05:24,400
Om het even over de boek van ICT te gooien.

109
00:05:24,400 --> 00:05:30,320
Fontys, een Hogeschool in de regio Brabant, die hebben een open ICT-opleiding, die werken zonder toetsen.

110
00:05:30,320 --> 00:05:33,920
En dan heb ik het over toetsen die beoordelend zijn.

111
00:05:33,920 --> 00:05:35,600
Maar dat wil niet zeggen dat ze niet toetsen.

112
00:05:35,600 --> 00:05:37,840
Ze toetsen de hele tijd continu.

113
00:05:37,840 --> 00:05:40,880
Alleen, daar hangt niet een soort zwaarwegende beslissing vanaf.

114
00:05:40,880 --> 00:05:45,840
Die jou dwingt om alle hulpmiddelen erbij te halen om zo hoog mogelijk cijfer te halen.

115
00:05:45,840 --> 00:05:46,960
Want je krijgt geen cijfer.

116
00:05:46,960 --> 00:05:50,080
En dat vraagt vaak van leerlingen en van docenten.

117
00:05:50,080 --> 00:05:54,480
Dat is een soort afstappen van hun denken van, ja, maar er moet wel een toets aan het einde zitten.

118
00:05:54,480 --> 00:05:57,920
En dat vind ik het mooie aan generatieve AI, wat er sinds twee jaar is.

119
00:05:57,920 --> 00:06:01,840
Dat het eigenlijk ons een beetje dwingt om meer richting dat leerproces te gaan.

120
00:06:01,840 --> 00:06:03,840
En wat minder naar het eindproduct.

121
00:06:03,840 --> 00:06:05,840
Snap ik.

122
00:06:05,840 --> 00:06:07,840
Ja, dat helpt zeker.

123
00:06:07,840 --> 00:06:09,840
Ik moet het ook even laten bezinken.

124
00:06:09,840 --> 00:06:13,840
Maar wel, ik denk dat het inderdaad een hele mooie beweging is.

125
00:06:13,840 --> 00:06:15,840
Precies wat je zegt.

126
00:06:15,840 --> 00:06:17,840
Ik had het natuurlijk niet voor niks over zelfontplooiing.

127
00:06:17,840 --> 00:06:19,840
Waar ik dan wel nog benieuwd naar ben.

128
00:06:19,840 --> 00:06:21,840
Ik kan me voorstellen dat de luisteraars het ook hebben.

129
00:06:21,840 --> 00:06:23,840
Uiteindelijk heb je zoiets als een examen.

130
00:06:23,840 --> 00:06:27,840
Hoe gaat dat dan op dit soort type scholen?

131
00:06:27,840 --> 00:06:31,840
Wat ik heel mooi vind, is dat je op die type scholen,

132
00:06:31,840 --> 00:06:36,840
lijkt een beetje de illusie op te wekken dat het dus nooit beoordeeld wordt.

133
00:06:36,840 --> 00:06:38,840
Maar dat wordt wel beoordeeld.

134
00:06:38,840 --> 00:06:43,840
Alleen de beoordeling wordt veel meer holistisch gedaan over de ontwikkeling die iemand heeft doorgemaakt.

135
00:06:43,840 --> 00:06:45,840
En niet op basis van één cijfer op een eindproduct.

136
00:06:45,840 --> 00:06:49,840
Dus, als je neemt bijvoorbeeld de middelbare school.

137
00:06:49,840 --> 00:06:51,840
In de middelbare school hebben we het centraal eindexamen.

138
00:06:51,840 --> 00:06:53,840
Ik vind dat een vreemd fenomeen.

139
00:06:53,840 --> 00:06:57,840
Als je na zes jaar middelbare school nog moet vaststellen of er iets geleerd is,

140
00:06:57,840 --> 00:06:59,840
ben je volgens mij te laat.

141
00:06:59,840 --> 00:07:01,840
Ik maak er een beetje een grapje over.

142
00:07:01,840 --> 00:07:04,840
Want ik vind ook wel dat je aan het einde wel iets moet kunnen laten zien.

143
00:07:04,840 --> 00:07:07,840
Maar de vraag is of daar alles van zou moeten afhangen.

144
00:07:07,840 --> 00:07:12,840
Wat je ziet in die andere opleidingen, is dat zij dat beoordelen eigenlijk uitspreiden.

145
00:07:12,840 --> 00:07:16,840
Er is dus niet meer één hele zwaarwegende beoordeling aan het einde.

146
00:07:16,840 --> 00:07:18,840
Maar er zijn allemaal beoordelingen.

147
00:07:18,840 --> 00:07:20,840
Eigenlijk alles wat je doet, telt mee aan jouw beoordeling.

148
00:07:20,840 --> 00:07:23,840
Maar je gaat veel meer kijken naar 'heb je je ontwikkeld?'

149
00:07:23,840 --> 00:07:25,840
In plaats van 'heb je hier een goed cijfer en heb je daar een cijfer?'

150
00:07:25,840 --> 00:07:27,840
Je gaat meer naar 'heb je je ontwikkeld?'

151
00:07:27,840 --> 00:07:29,840
En dan heb je een cijfer en een cijfer.

152
00:16:05,840 --> 00:16:09,840
Er zijn mensen die een soort vergezicht schilderen...

153
00:16:09,840 --> 00:16:12,840
waarin lezen en schrijven niet meer belangrijk zijn.

154
00:16:12,840 --> 00:16:16,840
Er was een tijd dat we niet lazen en schreven.

155
00:16:16,840 --> 00:16:18,840
We deden ook alles met verhalen.

156
00:16:18,840 --> 00:16:21,840
Ja, we deden alles met verhalen. Dat kenden we allemaal uit ons hoofd.

157
00:16:21,840 --> 00:16:23,840
In de tijd van Socrates, 2000 jaar geleden...

158
00:16:23,840 --> 00:16:26,840
toen het schrift opkwam, was Socrates heel anti het schrift.

159
00:16:26,840 --> 00:16:28,840
Die zei, daar word je dom van.

160
00:16:28,840 --> 00:16:30,840
Dan ga je alles uit je hoofd doen, dan blijft er niks achter.

161
00:16:30,840 --> 00:16:32,840
Dat soort angsten zijn er altijd.

162
00:16:32,840 --> 00:16:37,840
Maar wat ik heel mooi vind aan generatieve AI...

163
00:16:37,840 --> 00:16:41,840
is dat het een huwelijk is tussen informatica en taalkunde.

164
00:16:41,840 --> 00:16:45,840
We kunnen steeds meer op basis van taal in interactie met onze digitale apparaten.

165
00:16:45,840 --> 00:16:48,840
Dat betekent dus ook dat taal steeds belangrijker wordt.

166
00:16:48,840 --> 00:16:50,840
Maar welke taal precies dan?

167
00:16:50,840 --> 00:16:53,840
De directeur van IBM, als ik me niet vergis...

168
00:16:53,840 --> 00:16:56,840
de bedrijf dat eerst de personal computer uitbracht...

169
00:16:56,840 --> 00:16:59,840
heeft wel eens geroepen dat we niet meer ICT'ers nodig hebben...

170
00:16:59,840 --> 00:17:02,840
maar meer mensen die taal- en cultuurwetenschappen gaan studeren.

171
00:17:02,840 --> 00:17:04,840
Hoort daar dan ook schrijven bij?

172
00:17:04,840 --> 00:17:06,840
Ik denk het wel op dit moment.

173
00:17:06,840 --> 00:17:10,840
Omdat we in een samenleving leven met heel veel woorden om ons heen.

174
00:17:10,840 --> 00:17:12,840
Heel veel taal.

175
00:17:12,840 --> 00:17:15,840
Als je je aanvraag doet voor een bank of je DigiD...

176
00:17:15,840 --> 00:17:18,840
of je krijgt een brief van de belastingdienst of je moet iets tekenen.

177
00:17:18,840 --> 00:17:21,840
Het zijn allemaal dingen die daar onder die basisvaardigheden vallen.

178
00:17:21,840 --> 00:17:23,840
Maar ik denk wel dat ze veranderen.

179
00:17:23,840 --> 00:17:25,840
Ze zijn sowieso dynamisch.

180
00:17:25,840 --> 00:17:27,840
Mensen denken vaak dat we een soort basis hebben...

181
00:17:27,840 --> 00:17:29,840
en dat basis altijd de basis is. Dat is niet zo.

182
00:17:29,840 --> 00:17:31,840
Wat je tien jaar geleden nodig had aan rekenen...

183
00:17:31,840 --> 00:17:33,840
is niet wat je nu vandaag de dag nodig hebt aan rekenen.

184
00:17:33,840 --> 00:17:36,840
En ik denk dat hetzelfde kan gelden voor schrijven.

185
00:17:36,840 --> 00:17:40,840
Wat dan precies die basis is, dat weet ik niet.

186
00:17:40,840 --> 00:17:43,840
Daar moeten alle docenten nu naar gaan kijken.

187
00:17:43,840 --> 00:17:48,840
En worden we minder creatief door het schrijven?

188
00:17:48,840 --> 00:17:50,840
Door het niet schrijven?

189
00:17:50,840 --> 00:17:53,840
Ik heb hier vanochtend nog iets over geschreven op LinkedIn.

190
00:17:53,840 --> 00:17:56,840
Het is heel normatief om te zeggen 'worden we minder creatief'.

191
00:17:56,840 --> 00:17:58,840
Maar ik heb ondersteld dat we allemaal creatief zijn.

192
00:17:58,840 --> 00:18:01,840
Ik sprak laatst een keer een vriend van mij en ik zei precies tegen hem...

193
00:18:01,840 --> 00:18:04,840
het risico van als je chat je beauty gebruikt om je Sinterklaasgedicht te schrijven...

194
00:18:04,840 --> 00:18:06,840
is dat je zelf geen Sinterklaasgedicht meer kan schrijven.

195
00:18:06,840 --> 00:18:09,840
Waarop hij zei 'maar ten eerste kan ik helemaal geen Sinterklaasgedicht schrijven...

196
00:18:09,840 --> 00:18:12,840
en ten tweede wie ben jij om te zeggen dat ik creatief wil zijn?'

197
00:18:12,840 --> 00:18:14,840
En toen dacht ik 'ja, holy moly, jij hebt gelijk.

198
00:18:14,840 --> 00:18:17,840
Wie ben ik om te veronderstellen dat iedereen maar creatief wil zijn?'

199
00:18:17,840 --> 00:18:20,840
Dat is een soort intellectueel wensdenken dat we met z'n allen vinden...

200
00:18:20,840 --> 00:18:24,840
nee, iedereen moet wel literatuur lezen en moet heel goed kunnen schrijven en creatief zijn.

201
00:18:24,840 --> 00:18:26,840
Als je AI gebruikt gaat dat allemaal naar beneden.

202
00:18:26,840 --> 00:18:28,840
Terwijl ik denk voor heel veel mensen is met AI werken...

203
00:18:28,840 --> 00:18:31,840
een enorme verbetering van wat ze daarvoor kunnen.

204
00:18:31,840 --> 00:18:33,840
Wat is daar dan mis mee?

205
00:18:33,840 --> 00:18:37,840
Ik snap wel het argument heel goed dat jonge kinderen die het nog niet zelf kunnen...

206
00:18:37,840 --> 00:18:40,840
als die alles met AI gaan laten doen...

207
00:18:40,840 --> 00:18:43,840
dan ontstaat er al heel jong een afhankelijkheid die je misschien niet meer kan inhalen.

208
00:18:43,840 --> 00:18:45,840
Daar zie ik een risico.

209
00:18:45,840 --> 00:18:49,840
Maar ik denk aan de andere kant wel dat schrijven anno 2024...

210
00:18:49,840 --> 00:18:53,840
is niet meer alleen zitten en woorden tikken.

211
00:18:53,840 --> 00:18:55,840
Ik schrijf kinderboeken.

212
00:18:55,840 --> 00:18:59,840
Ik heb van de zomer geprobeerd met de hulp van AI te schrijven wat toch authentiek voelt...

213
00:18:59,840 --> 00:19:01,840
en wat ik uitgegeven kan krijgen.

214
00:19:01,840 --> 00:19:03,840
Het is gelukt. Ik ga volgende week tekenen.

215
00:19:03,840 --> 00:19:05,840
Het komt volgend jaar uit.

216
00:19:05,840 --> 00:19:09,840
Het was voor mij een proces waarin ik enorm heb geleerd wat de grenzen zijn van AI...

217
00:19:09,840 --> 00:19:12,840
wat voor mij authentiek zijn betekent.

218
00:19:12,840 --> 00:19:17,840
En ik denk dat we dus ook verantwoordelijkheid hebben om onze jeugd te leren...

219
00:19:17,840 --> 00:19:20,840
om hier op een ethisch verantwoorde manier mee te werken.

220
00:19:20,840 --> 00:19:24,840
Dat je dus niet op de knop en je krijgt een tekst en ik doe er niks meer mee.

221
00:19:24,840 --> 00:19:27,840
Maar dat vereist basiskennis.

222
00:19:27,840 --> 00:19:31,840
Je moet bijvoorbeeld veel kennis hebben over het onderwerp waarop je schrijft...

223
00:19:31,840 --> 00:19:33,840
om dat inhoudelijk te beoordelen.

224
00:19:33,840 --> 00:19:36,840
Je moet ook een goede schrijver zijn om te bepalen of iets goed genoeg is...

225
00:19:36,840 --> 00:19:38,840
om gepubliceerd te worden.

226
00:19:38,840 --> 00:19:41,840
En dan moet ik altijd denken aan de tip van Annie M. G. Smeed, kinderboekenschrijver.

227
00:19:41,840 --> 00:19:43,840
Die zei, weet je hoe je een goede schrijver wordt?

228
00:19:43,840 --> 00:19:45,840
Lees veel slechte boeken.

229
00:19:45,840 --> 00:19:48,840
Dat is een briljante tip.

230
00:19:48,840 --> 00:19:51,840
Het is echt waar. Daardoor ontwikkel je kwaliteitsbesef.

231
00:19:51,840 --> 00:19:54,840
En dat is volgens mij wat we bij kinderen moeten ontwikkelen.

232
00:19:54,840 --> 00:19:57,840
Ik ben wel nieuwsgierig. Je had net over authentiek en authentiek aanvoelen.

233
00:19:57,840 --> 00:20:02,840
Wat was datgene wat je zocht in de tekst? Wat voor jou dan authentiek voelde?

234
00:20:02,840 --> 00:20:05,840
Dat is mijn stijl, mijn schrijfstijl.

235
00:20:05,840 --> 00:20:09,840
Wat ik heb gemerkt met het schrijven met hulp van taalmodellen...

236
00:20:09,840 --> 00:20:12,840
is dat het heel veel... het is heel generiek.

237
00:20:12,840 --> 00:20:16,840
En pas als je heel stevig in het prompten, in het vraagstellen gaat zitten...

238
00:20:16,840 --> 00:20:19,840
en de context meegeeft, kun je dat wat aanpassen.

239
00:20:19,840 --> 00:20:21,840
Maar wat ik merkte was dat ik het...

240
00:20:21,840 --> 00:20:25,840
Ik teken het altijd uit. Schrijven is niet een soort lineair, netjes proces...

241
00:20:25,840 --> 00:20:27,840
van oké, tikken en ik heb een eindproduct.

242
00:20:27,840 --> 00:20:30,840
Dat gaat heel chaotisch en heeft allemaal ijkpuntjes.

243
00:20:30,840 --> 00:20:33,840
Dus bijvoorbeeld, ik heb een idee. Oké, dan ga ik even wandelen.

244
00:20:33,840 --> 00:20:35,840
Dan ga ik dat idee een beetje uitpluizen.

245
00:20:35,840 --> 00:20:37,840
Dan ga ik brainstormen. Dan ga ik een structuur bedenken.

246
00:20:37,840 --> 00:20:40,840
Dan ga ik weer terug naar de brainstorm. Dan ga ik een karakter ontwikkelen.

247
00:20:40,840 --> 00:20:42,840
Anyway, het loopt allemaal door elkaar.

248
00:20:42,840 --> 00:20:45,840
Wat ik heb gemerkt is dat op al die momentjes...

249
00:20:45,840 --> 00:20:48,840
zijn er kansen om met AI te ondersteunen.

250
00:20:48,840 --> 00:20:52,840
Dus wat ik bijvoorbeeld deed was, oké, ik bedenk eerst even grofweg een karakter.

251
00:20:52,840 --> 00:20:54,840
Dan ga ik dat karakter eens laten uitwerken.

252
00:20:54,840 --> 00:20:58,840
En dan doe ik met AI een soort interview alsof ik met dat karakter bezig ben...

253
00:20:58,840 --> 00:21:00,840
om mij te dwingen meer context eruit te halen.

254
00:21:00,840 --> 00:21:02,840
Dat liet ik dan omschrijven in een soort van...

255
00:21:02,840 --> 00:21:05,840
oké, wat zou een karakterboog kunnen zijn? Geef me eens tien opties.

256
00:21:05,840 --> 00:21:08,840
En dan plukte ik wat dingen uit en dan ging ik zo weer verder.

257
00:21:08,840 --> 00:21:13,840
Ik was de hele tijd aan het pingpongen met AI in specifieke momenten.

258
00:21:13,840 --> 00:21:17,840
En soms leerde ik dan ook, ja, dit doe ik even zelf.

259
00:21:17,840 --> 00:21:19,840
En uiteindelijk had ik dan een concept tekst aan...

260
00:21:19,840 --> 00:21:21,840
wat ik helemaal kapot geredigeerd heb...

261
00:21:21,840 --> 00:21:24,840
om het uiteindelijk weer naar niveau te trekken...

262
00:21:24,840 --> 00:21:26,840
wat ik mooi vind en mijn stijl erin.

263
00:21:26,840 --> 00:21:28,840
Dus, ja...

264
00:21:28,840 --> 00:21:31,840
Wat ik eigenlijk vooral hoor in hoe je dit beschrijft...

265
00:21:31,840 --> 00:21:34,840
is dat je namelijk eigenlijk al weet hoe je een boek schrijft.

266
00:21:34,840 --> 00:21:35,840
Juist.

267
00:21:35,840 --> 00:21:39,840
En als je dat niet zou weten, dan ga je denk ik iets vragen...

268
00:21:39,840 --> 00:21:43,840
en dan kan je eigenlijk niks meer met dat eindproduct.

269
00:21:43,840 --> 00:21:44,840
Ja.

270
00:21:44,840 --> 00:21:46,840
Maar je hebt een heel proces in je hoofd...

271
00:21:46,840 --> 00:21:48,840
waarbij je hulp krijgt van...

272
00:21:48,840 --> 00:21:50,840
maar je weet hoe je een boek schrijft.

273
00:21:50,840 --> 00:21:53,840
Ja, en als je dat niet hebt, doe je een shortcut.

274
00:21:53,840 --> 00:21:55,840
En dat kan gevaarlijk zijn.

275
00:21:55,840 --> 00:21:57,840
Wel zie ik dan maar weer een kans voor iemand die zo autodidactisch is...

276
00:21:57,840 --> 00:21:59,840
die zegt, oké, help me om een boek te schrijven.

277
00:21:59,840 --> 00:22:00,840
Wat zijn de stappen?

278
00:22:00,840 --> 00:22:01,840
Ja.

279
00:22:01,840 --> 00:22:03,840
En dan ga je op die manier erlangs.

280
00:22:03,840 --> 00:22:04,840
Het is kwaliteitsbesef.

281
00:22:04,840 --> 00:22:05,840
Dat is wat je zegt.

282
00:22:05,840 --> 00:22:09,840
Heb je ook eerder een boek geschreven met gewoon een collega uit het onderwijs?

283
00:22:09,840 --> 00:22:10,840
Ja, zeker.

284
00:22:10,840 --> 00:22:12,840
Ik heb meerdere boeken met andere auteurs geschreven.

285
00:22:12,840 --> 00:22:14,840
En was daar voor jou nog een verschil...

286
00:22:14,840 --> 00:22:17,840
toen je dat met de persoon deed en nu met de AI doet?

287
00:22:17,840 --> 00:22:20,840
Ik moest de teksten van de mens altijd veel meer redigeren...

288
00:22:20,840 --> 00:22:21,840
dan de teksten van de AI.

289
00:22:21,840 --> 00:22:23,840
Oh, dat is een goeie.

290
00:22:23,840 --> 00:22:28,840
Dat zijn twee hele andere eigen schrijfstijlen vaak.

291
00:22:28,840 --> 00:22:31,840
En bijvoorbeeld, ik schreef een boek met iemand die gepromoveerd is.

292
00:22:31,840 --> 00:22:32,840
Heel academisch.

293
00:22:32,840 --> 00:22:36,840
En we moesten een boek schrijven dat voor een breed publiek toegankelijk is.

294
00:22:36,840 --> 00:22:39,840
Dus dan moet je juist niet academisch schrijven.

295
00:22:39,840 --> 00:22:41,840
Dat is best wel lastig.

296
00:22:41,840 --> 00:22:43,840
Maar als ik tegen die persoon zei...

297
00:22:43,840 --> 00:22:45,840
schrijf het eens even wat toegankelijker op...

298
00:22:45,840 --> 00:22:46,840
dan was dat best wel lastig.

299
00:22:46,840 --> 00:22:49,840
Als ik tegen AI zeg, schrijf het eens wat minder toegankelijk op...

300
00:22:49,840 --> 00:22:51,840
dan kreeg ik meteen een andere tekst.

301
00:22:51,840 --> 00:22:53,840
Dus dat is wel een interessant verschil, denk ik.

302
00:22:53,840 --> 00:22:54,840
En die grenzen.

303
00:22:54,840 --> 00:22:57,840
Je zei van, ik heb de grenzen verkend.

304
00:22:57,840 --> 00:23:00,840
Zou je die kunnen verwoorden, wat die grenzen waren?

305
00:23:00,840 --> 00:23:03,840
Dat vind ik ook een hele interessante vraag.

306
00:23:03,840 --> 00:23:07,840
Ja, dus op het moment dat je er zoveel mee werkt...

307
00:23:07,840 --> 00:23:09,840
dan kom je er op een gegeven moment achter dat...

308
00:23:09,840 --> 00:23:14,840
bijvoorbeeld een taalmodel heel vaak met clichés komt.

309
00:23:14,840 --> 00:23:16,840
Ja, behoorlijk. - In teksten.

310
00:23:16,840 --> 00:23:23,840
En dat komt omdat ik weet dat in de data die clichés vaak voorkomen.

311
00:23:23,840 --> 00:23:26,840
En dat op basis van de patroonherkenning en de kansberekening...

312
00:23:26,840 --> 00:23:30,840
dus een hogere statistische kans is dat ik op zoek ben naar dat cliché.

313
00:23:30,840 --> 00:23:36,840
Dus als ik dat weet, dan leer ik ten eerste clichés beter te herkennen...

314
00:23:36,840 --> 00:23:43,840
en ten tweede weet ik dat dat een zwakte is die ik kan voorkomen of aanpassen...

315
00:23:43,840 --> 00:23:45,840
omdat ik daar veel bewuster van ben geworden.

316
00:23:45,840 --> 00:23:47,840
Dat vind ik een mooi voorbeeld.

317
00:23:47,840 --> 00:23:50,840
Ander voorbeeld, chat-GPT komt heel vaak met anglicisme.

318
00:23:50,840 --> 00:23:52,840
Dan staat er bijvoorbeeld, als je een e-mailtje laat schrijven...

319
00:23:52,840 --> 00:23:55,840
'Ik hoop dat deze e-mail u een goede gezondheid bereikt.'

320
00:23:55,840 --> 00:23:58,840
Dat schrijven wij in Nederland niet, maar in Engeland wel.

321
00:23:58,840 --> 00:24:01,840
Ander mooi voorbeeld, ik vroeg aan ChatGPT...

322
00:24:01,840 --> 00:24:04,840
'Ork, ork, ork, soep eet je met een...?'

323
00:24:04,840 --> 00:24:06,840
Nou? - Ja, lepel.

324
00:24:06,840 --> 00:24:08,840
Weet je wat ChatGPT zei? 'Kurk.'

325
00:24:08,840 --> 00:24:13,840
Maar weet je waarom die 'kurk' zei? Omdat in het Engels zeg je 'kork'.

326
00:24:13,840 --> 00:24:15,840
En 'kork' rijmt op 'ork'.

327
00:24:15,840 --> 00:24:18,840
Dus toen ik dat leerde, dacht ik 'ah, verrek.'

328
00:24:18,840 --> 00:24:22,840
ChatGPT schrijft vooral in het Engels omdat het vooral Engelstalige data heeft gezien.

329
00:24:22,840 --> 00:24:25,840
En dus komt het met heel veel rare vervormingen...

330
00:24:25,840 --> 00:24:27,840
omdat het dus voornamelijk op die data getraind is.

331
00:24:27,840 --> 00:24:32,840
En dat soort dingen bedoel ik met de grenzen van die taalmodellen leren kennen...

332
00:24:32,840 --> 00:24:36,840
zodat ik veel beter begrijp waarom die met de output komt, waar die mee komt.

333
00:24:36,840 --> 00:24:38,840
En dat veel beter ook kan sturen.

334
00:24:38,840 --> 00:24:41,840
Even uit nieuwsgierigheid, heb je ook andere taalmodellen...

335
00:24:41,840 --> 00:24:44,840
dan die van chat-GPT gebruikt? - Jazeker.

336
00:24:44,840 --> 00:24:46,840
Ik ben nu groot fan van Claude.

337
00:24:46,840 --> 00:24:50,840
Sonnet 3.5, om maar even heel specifiek te zijn.

338
00:24:50,840 --> 00:24:53,840
Ik merk dat die voor creatief schrijven goed werkt.

339
00:24:53,840 --> 00:24:59,840
Maar ik gebruik bij ChatGPT nu die GPT 4o.

340
00:24:59,840 --> 00:25:04,840
Ik ga niet naar o1 voor schrijftaken, omdat dat een redeneermodel is.

341
00:25:04,840 --> 00:25:08,840
En die is dus ook meer getraind op redeneringen dan op goed schrijven.

342
00:25:08,840 --> 00:25:12,840
Dus voor hele specifieke schrijftaken of voor analysetaken...

343
00:25:12,840 --> 00:25:15,840
kies ik telkens een ander model of een andere tool.

344
00:25:15,840 --> 00:25:21,840
En dat betekent eigenlijk dat je je laat horen waar je vaardigheden het op gedaan...

345
00:25:21,840 --> 00:25:24,840
hoe je met dit soort hulpmiddelen om moet gaan.

346
00:25:24,840 --> 00:25:27,840
Ja, dus ik blijf terugkomen naar die vraag...

347
00:25:27,840 --> 00:25:29,840
wat is eigenlijk een schrijver zijn?

348
00:25:29,840 --> 00:25:31,840
En hoe word je een betere schrijver?

349
00:25:31,840 --> 00:25:33,840
Veel lezen, goed en slecht.

350
00:25:33,840 --> 00:25:37,840
Feedback geven, feedback ontvangen, verwerken.

351
00:25:37,840 --> 00:25:42,840
Uitwisselen, praten over boeken, voorlezen.

352
00:25:42,840 --> 00:25:46,840
Allemaal manieren die nog niks met schrijven zelf te maken hebben.

353
00:25:46,840 --> 00:25:48,840
Dus ja, moeten we blijven leren schrijven?

354
00:25:48,840 --> 00:25:51,840
Ik denk het wel, omdat het breder is dan alleen maar gewoon pennen.

355
00:25:51,840 --> 00:25:53,840
Dan ga ik op het lezen komen.

356
00:25:53,840 --> 00:25:59,840
Want in ieder geval, ik moest allemaal verplichte boeken lezen...

357
00:25:59,840 --> 00:26:03,840
van wat dan zogenaamd literatuur is.

358
00:26:03,840 --> 00:26:10,840
Die wordt je opgelegd en voor heel veel tieners is dat niet het meest motiverende.

359
00:26:10,840 --> 00:26:12,840
Ik vond lezen heerlijk, ik had er geen last van.

360
00:26:12,840 --> 00:26:16,840
Maar ik zag mijn klasgenoten daar enorm mee worstelen.

361
00:26:16,840 --> 00:26:20,840
Dus als jij zegt 'ga veel lezen', denken zij allemaal van 'ja, ammehoela'.

362
00:26:20,840 --> 00:26:23,840
Want dan moet ik allemaal die saaie boeken lezen.

363
00:26:23,840 --> 00:26:28,840
Nou ja, hebben jullie het artikel in de Volkskrant gezien van de week?

364
00:26:28,840 --> 00:26:30,840
Dat ging over kinderboeken namelijk.

365
00:26:30,840 --> 00:26:34,840
Er is wat kritiek op de kwaliteit van kinderboeken.

366
00:26:34,840 --> 00:26:41,840
En de boeken die het meest verkopen, zijn niet de boeken die men het meest rijk vindt qua taal.

367
00:26:41,840 --> 00:26:46,840
Maar het zijn wel de boeken die kinderen die niet van lezen houden, als eerste oppakken.

368
00:26:46,840 --> 00:26:48,840
Moeten we dat dan slecht vinden?

369
00:26:48,840 --> 00:26:51,840
Of moeten we juist stimuleren dat ze eindelijk een boek op hebben gepakt...

370
00:26:51,840 --> 00:26:53,840
en zou dat een weg naar meer kunnen zijn?

371
00:26:53,840 --> 00:26:55,840
Als je het aan mij vraagt, zeg ik 'lezen is lezen'.

372
00:26:55,840 --> 00:26:57,840
Dus lezen wat je leuk vindt.

373
00:26:57,840 --> 00:26:58,840
Lezen wat je leuk vindt.

374
00:26:58,840 --> 00:27:01,840
We hebben een groot probleem in Nederland met leesmotivatie, leesplezier.

375
00:27:01,840 --> 00:27:03,840
Dus kinderen ervaren weinig leesplezier.

376
00:27:03,840 --> 00:27:06,840
Dat heeft onder meer te maken met het onderwijs.

377
00:27:06,840 --> 00:27:09,840
We hebben lezen en leesontwikkeling heel instrumenteel benaderd.

378
00:27:09,840 --> 00:27:11,840
We gaan een lesje 'Begrijp het lezen' doen.

379
00:27:11,840 --> 00:27:13,840
Dan ga je niet meer kijken hoe leuk je die tekst vindt.

380
00:27:13,840 --> 00:27:15,840
Je kijkt gewoon naar 'kun je de signaalwoorden herkennen?'

381
00:27:15,840 --> 00:27:17,840
'Kun je de kernboodschap hier eruit halen?'

382
00:27:17,840 --> 00:27:18,840
Dat boeit toch niet?

383
00:27:18,840 --> 00:27:20,840
Nee, dat heeft toch niks met lezen te maken?

384
00:27:20,840 --> 00:27:23,840
Nee, precies. 'Kun jij nu de signaalwoorden in een tekst aanwijzen?'

385
00:27:23,840 --> 00:27:24,840
Nee.

386
00:27:24,840 --> 00:27:26,840
Ik ben daar niet mee bezig als ik een tekst lees.

387
00:27:26,840 --> 00:27:27,840
Nee, zeker niet.

388
00:27:27,840 --> 00:27:34,840
Ik denk dus dat we bij de jonge kinderen ze in ieder geval aan het lezen moeten krijgen.

389
00:27:34,840 --> 00:27:41,840
Ik ben er dus ook van de school die zegt 'ik vind het helemaal niet zo erg als je boeken leest waarvan ik zou zeggen dat is niet de meest rijke tekst.'

390
00:27:41,840 --> 00:27:44,840
Prima. Ik heb ook een periode gehad dat ik Donald Duck las.

391
00:27:44,840 --> 00:27:45,840
Heerlijk.

392
00:27:45,840 --> 00:27:47,840
Later ben ik andere dingen gaan lezen.

393
00:27:47,840 --> 00:27:48,840
Ik lees nog steeds.

394
00:27:48,840 --> 00:27:51,840
Precies, precies. Heerlijk. Donald Dux.

395
00:27:51,840 --> 00:27:54,840
Daar kom ik ook weer terug op dat intellectueel wensdenken.

396
00:27:54,840 --> 00:28:01,840
Ik heb soms de indruk dat we met z'n allen vinden dat we allemaal een soort super hoog niveau lezers moeten zijn, super hoog niveau schrijvers.

397
00:28:01,840 --> 00:28:03,840
Dat is niet realistisch.

398
00:28:03,840 --> 00:28:09,840
Een dokter kan misschien heel goed medische dossiernotities maken, is heel goed in zijn vak, maar is een belabberde creatief schrijver.

399
00:28:09,840 --> 00:28:11,840
Maakt toch niet uit?

400
00:28:11,840 --> 00:28:15,840
En andersom, een marktverkoper, met alle respect, is misschien een supergoede dichter.

401
00:28:15,840 --> 00:28:28,840
Ik denk dus dat we in het onderwijs qua lezen, om het even in de brug naar AI te krijgen, daar zie ik wel hele mooie kansen om snelle teksten op maat die aansluiten bij een interesse te genereren.

402
00:28:28,840 --> 00:28:33,840
Bijvoorbeeld, jij bent Jantje en we hebben daar Hanna.

403
00:28:33,840 --> 00:28:36,840
Hanna houdt van paarden, Jantje houdt van voetbal.

404
00:28:36,840 --> 00:28:41,840
Moet ik jou dan een verhaal over paarden door je strot duwen of moet ik Hanna een verhaal over voetbal door haar strot duwen?

405
00:28:41,840 --> 00:28:45,840
Of kunnen we daar misschien wat dingen nu met AI sneller op maat laten maken?

406
00:28:45,840 --> 00:28:47,840
Vind ik een interessante gedachte.

407
00:28:47,840 --> 00:28:52,840
Als dat in ieder geval betekent dat iemand meer leest en zich daarmee beter ontwikkelt, waarom niet?

408
00:28:52,840 --> 00:28:56,840
Nou, ik vind het hele goede. Ik heb dat met mijn kleindochter gedaan.

409
00:28:56,840 --> 00:28:58,840
Die houdt absoluut niet van lezen.

410
00:28:58,840 --> 00:29:00,840
Is heel gek op paarden.

411
00:29:00,840 --> 00:29:04,840
En wat vindt ze dan leuk? Verhalen die over haar gaan, met paarden.

412
00:29:04,840 --> 00:29:09,840
Dan heeft ze allerlei fantasieën over hoe ze met, dat het paard alleen maar van haar is.

413
00:29:09,840 --> 00:29:16,840
En als je dat soort dingen dan laat genereren, is ze inderdaad bereid om die stukken wel te lezen.

414
00:29:16,840 --> 00:29:18,840
En wat vindt ze het leuk?

415
00:29:18,840 --> 00:29:26,840
Dat vindt ze leuk. Maar alles wat ze via andere kanalen aangereikt krijgt, dat vindt ze helemaal niks aan.

416
00:29:26,840 --> 00:29:29,840
Is ze zelf ook wat teksten aan het maken, zodat ze zichzelf weer kan voorstellen?

417
00:29:29,840 --> 00:29:31,840
Nee, nee, helaas niet.

418
00:29:31,840 --> 00:29:34,840
We gaan hier wel naartoe, denk ik.

419
00:29:34,840 --> 00:29:39,840
Als we het hebben over de ontwikkeling van media, ik denk dat we de komende jaren steeds meer

420
00:29:39,840 --> 00:29:42,840
create your own adventure stories gaan krijgen.

421
00:29:42,840 --> 00:29:45,840
Met AI kun je dat makkelijk genereren.

422
00:29:45,840 --> 00:29:46,840
Is toch vet? Ja, toch?

423
00:29:46,840 --> 00:29:48,840
Ja, ik vind het wel vet.

424
00:29:48,840 --> 00:29:50,840
Het wordt ook verteld tegenwoordig voor je.

425
00:29:50,840 --> 00:29:53,840
Ja, de personages zelf inderdaad.

426
00:29:53,840 --> 00:29:57,840
En ja, het heeft denk ik twee kanten van de medaille.

427
00:29:57,840 --> 00:30:00,840
Aan de ene kant vind ik dat heel tof en zou ik dat heel graag willen.

428
00:30:00,840 --> 00:30:05,840
Aan de andere kant betekent dat ook dat er mensen zijn die hun baan gaan verliezen of die misschien

429
00:30:05,840 --> 00:30:07,840
ergens minder intellectueel ontwikkeld worden.

430
00:30:07,840 --> 00:30:09,840
Er zit altijd wel een beetje een trade-off in.

431
00:30:09,840 --> 00:30:11,840
Dat is een beetje hoe de wereld werkt.

432
00:30:11,840 --> 00:30:18,840
Ik denk wel dat we moeten voorkomen te normatief te zijn in wat we denken dat goed is voor onze kinderen.

433
00:30:18,840 --> 00:30:20,840
Ja, dat is een hele goede.

434
00:30:20,840 --> 00:30:23,840
Nee, dit boek moet je niet lezen, want dat is niet rijk genoeg.

435
00:30:23,840 --> 00:30:30,840
Je bent wel aan het lezen en die ouders, ik heb gelezen in het artikel, die auteurs,

436
00:30:30,840 --> 00:30:35,840
die hun boeken niet rijk genoeg zouden zijn, die krijgen alleen maar SMSjes met 'ik ben zo blij dat men

437
00:30:35,840 --> 00:30:37,840
uiteindelijk eens een keer een boek op heeft gepakt'.

438
00:30:37,840 --> 00:30:39,840
Moeten we dat erg vinden?

439
00:30:39,840 --> 00:30:40,840
Nee, lijkt me niet.

440
00:30:40,840 --> 00:30:42,840
Je eet, nou ja, goed, dus dat.

441
00:30:42,840 --> 00:30:45,840
Volgens mij wil je het over eten, toch?

442
00:30:45,840 --> 00:30:51,840
Dat je zegt van de ene keer eet je een snack en de andere keer vind je het lekker om in een restaurant heel chique te eten.

443
00:30:51,840 --> 00:30:53,840
Ja, dat is interessant.

444
00:30:53,840 --> 00:30:57,840
Met alle respect ook naar haar, zij is auteur van het boek 'Lui letterland', Anne Steenhoff,

445
00:30:57,840 --> 00:31:02,840
en zij schrijft eigenlijk over dat je in het boek goede boeken moet hebben en dat je vooral veel met boeken bezig moet zijn.

446
00:31:02,840 --> 00:31:03,840
Helemaal met eens.

447
00:31:03,840 --> 00:31:10,840
Maar zij zei in hetzelfde artikel ook, als je een kind altijd zelf laat kiezen wat hij wil eten, wil hij alleen maar friet en McDonald's eten.

448
00:31:10,840 --> 00:31:12,840
Toen dacht ik, maar dat is een rare vergelijking.

449
00:31:12,840 --> 00:31:17,840
Ik heb het een keer een dag mogen doen van mijn vader, nou, na een dag was ik er behoorlijk klaar mee.

450
00:31:17,840 --> 00:31:24,840
Ik denk dat kinderen door heel veel McDonald's te eten juist zullen inzien dat het verschrikkelijke troep is en vervolgens naar meer gaan.

451
00:31:24,840 --> 00:31:26,840
Maar dan neem je eigenlijk de kinderen niet serieus.

452
00:31:26,840 --> 00:31:27,840
Ik denk het ook, ja.

453
00:31:27,840 --> 00:31:30,840
Ik denk dat we daarin niet te veel moeten opleggen.

454
00:31:30,840 --> 00:31:34,840
Jij gebruikte ook de woorden opgelegd en verplicht toen je het had over jouw boekenlijst.

455
00:31:34,840 --> 00:31:35,840
Dat viel mij op.

456
00:31:35,840 --> 00:31:37,840
Want ik dacht, daar zit al de crux.

457
00:31:37,840 --> 00:31:41,840
Als ik jou allemaal dingen ga opleggen, dan dwing ik jou tot iets.

458
00:31:41,840 --> 00:31:46,840
En ergens moeten we, denk ik, de leerlingen laten zien wat er allemaal is aan het palet en wat er goed is.

459
00:31:46,840 --> 00:31:52,840
En dat veronderstelt wel dat een docent ook weet wat goed is en wat minder goed is, zodat ik kan inhaken op.

460
00:31:52,840 --> 00:31:58,840
"Hé Hanna, jij leest graag bepaalde boeken, nou dan heb ik er nog wel een paar voor je die wel echt heel erg de moeite waard zijn."

461
00:31:58,840 --> 00:32:00,840
Dat is wel nodig, denk ik.

462
00:32:00,840 --> 00:32:03,840
Maar om dan te zeggen, ja, dit boek mag je niet lezen, hoor.

463
00:32:03,840 --> 00:32:05,840
Nee, die is niet goed genoeg.

464
00:32:05,840 --> 00:32:13,840
Hé, wij hebben een kaartspel ontwikkeld, Niels en ik, met allerlei stellingen over generatieve AI.

465
00:32:13,840 --> 00:32:18,840
Dit is ook de generatieve AI editie en daarvan willen we jou ook een stelling voorleggen.

466
00:32:18,840 --> 00:32:19,840
Tof!

467
00:32:19,840 --> 00:32:31,840
[muziek]

468
00:32:31,840 --> 00:32:33,840
Dit was AI, of niet?

469
00:32:33,840 --> 00:32:35,840
Ja, zeker!

470
00:32:35,840 --> 00:32:37,840
[lachen]

471
00:32:37,840 --> 00:32:40,840
Waren we heel creatief, inderdaad.

472
00:32:40,840 --> 00:32:44,840
De stelling, in de categorie ethiek en maatschappij.

473
00:32:44,840 --> 00:32:52,840
De stelling is, "Er zijn doeltreffende strategieën beschikbaar om vooroordelen in generatieve AI algoritme te verminderen."

474
00:32:52,840 --> 00:32:55,840
Zo.

475
00:32:55,840 --> 00:32:57,840
Ja en nee.

476
00:32:57,840 --> 00:32:58,840
Yes.

477
00:32:58,840 --> 00:33:02,840
Ja, die zijn er, maar ze hebben ook een limiet.

478
00:33:02,840 --> 00:33:05,840
Moet ik dat uitleggen?

479
00:33:05,840 --> 00:33:06,840
Graag.

480
00:33:06,840 --> 00:33:07,840
[lachen]

481
00:33:07,840 --> 00:33:08,840
Je zegt, "Eens kijken."

482
00:33:08,840 --> 00:33:11,840
Ik zeg dit altijd ook in mijn sessies.

483
00:33:11,840 --> 00:33:19,840
Ik laat al een voorbeeld zien van hoe Mid Journey, zo'n plaatjesgenerator tool, zeker in het begin, echt heel erg stereotypes genereerde.

484
00:33:19,840 --> 00:33:24,840
Dan bleef je maar vragen naar bijvoorbeeld, "Laat me zien, een directeur komt er nooit een vrouw uit."

485
00:33:24,840 --> 00:33:32,840
Dan laat ik vervolgens zien, oké, maar aan de andere kant kun je ook diversiteitsfilters inbouwen, wat Google heeft gedaan met hun tool.

486
00:33:32,840 --> 00:33:33,840
En dat ging ook weer helemaal mis.

487
00:33:33,840 --> 00:33:38,840
Want dan kreeg je bij een Duitse soldaat uit 1943 een Aziatisch iemand en dan kreeg je iemand daar noem maar op.

488
00:33:38,840 --> 00:33:44,840
Dus wat ik dan altijd meegeef aan mijn luisteraars, is dat ik zeg van, "Kijk, de wereld is niet vrij van vooroordelen."

489
00:33:44,840 --> 00:33:50,840
Dat betekent dat dieren altijd zullen zijn en die gaan altijd hun weg vinden naar die modellen, want de wereld is niet neutraal.

490
00:33:50,840 --> 00:33:57,840
Dus we hebben, als ontwikkelaars, de verantwoordelijkheid om te proberen die datasets zo divers mogelijk te maken.

491
00:33:57,840 --> 00:34:00,840
En dat is wel degelijk een strategie die we kunnen inzetten.

492
00:34:00,840 --> 00:34:03,840
Hetzelfde geldt voor hoe worden die systemen getraind?

493
00:34:03,840 --> 00:34:06,840
Wie traint die? Is dat een diverse groep van mensen?

494
00:34:06,840 --> 00:34:08,840
Dus dat zijn strategieën die effectief zijn.

495
00:34:08,840 --> 00:34:15,840
Aan de andere kant zeg ik ook, maar wij hebben als gebruiker ook een enorme verantwoordelijkheid om hier ethisch verantwoord mee om te gaan.

496
00:34:15,840 --> 00:34:17,840
Want je kunt het niet helemaal biasvrij maken.

497
00:34:17,840 --> 00:34:21,840
En dat legt dus voor mij heel erg de nadruk bij de gebruiker zelf.

498
00:34:21,840 --> 00:34:24,840
Die dus niet alleen maar kan zeggen, "Ja, die systemen zijn helemaal biased."

499
00:34:24,840 --> 00:34:29,840
Maar wacht even, jij hebt ook een verantwoordelijkheid om de juiste vragen te stellen en goede opdrachten aan te geven.

500
00:34:29,840 --> 00:34:33,840
En de output, wat je er ook mee doet, voorspellingen noem maar op, goed te beoordelen.

501
00:34:33,840 --> 00:34:37,840
Dus vandaar dat ik zei ja en nee.

502
00:34:37,840 --> 00:34:38,840
Mooie antwoord.

503
00:34:54,840 --> 00:34:59,840
Ja, dat was zo'n goed antwoord dat ik dat eventjes moet laten bezinken.

504
00:34:59,840 --> 00:35:06,840
Wat ik daar nog aan toe wilde voegen, jij hebt helemaal gelijk, zeker als ontwikkelaars, wij zijn ontwikkelaars van dit soort systemen,

505
00:35:06,840 --> 00:35:16,840
is dat er ook gewoon allerlei technische metrieken zijn waarop je überhaupt al je data gewoon kan meten van hoeveel bias zit erin.

506
00:35:16,840 --> 00:35:20,840
Dus je hebt helemaal gelijk van, ja, biasvrij, nee dat bestaat niet.

507
00:35:20,840 --> 00:35:28,840
Maar je kan inderdaad op zoek gaan naar hoeveel en hoeveel mag er dan in zijn en dat je daar allemaal afweging in maakt.

508
00:35:28,840 --> 00:35:36,840
Precies dat is denk ik wat je dus als ontwikkelaar de verantwoordelijkheid toe hebt en dus ook de organisatie waar je dat mee opzet.

509
00:35:36,840 --> 00:35:40,840
Wat ik ook nog wel interessant vind om mee te geven is dat bias ook een functie is van AI.

510
00:35:40,840 --> 00:35:42,840
En dat vind ik fascinerend.

511
00:35:42,840 --> 00:35:45,840
Kan je die uitleggen, want ik denk dat heel veel luisteraars nu denken van "Huh?"

512
00:35:45,840 --> 00:35:52,840
Ja, nee zeker. Laatst zag ik een artikel voorbijkomen waarin ze hadden geprobeerd, kunnen wij op basis van een groot taalmodel,

513
00:35:52,840 --> 00:36:03,840
volgens mij was het ChatGPT in dit geval met versie 4o, de data uit echte onderzoeken, sociaal-wetenschappelijk onderzoek voorspellen.

514
00:36:03,840 --> 00:36:09,840
Dus met andere woorden, we gebruiken het taalmodel om een synthetische dataset te maken,

515
00:36:09,840 --> 00:36:17,840
die zogenaamd van 100, 200 respondenten de antwoorden heeft verzameld, zonder dat we kijken naar wat die echte antwoorden zijn,

516
00:36:17,840 --> 00:36:21,840
en komt dat dan overeen met elkaar? En dat blijkt dus echt heel hoog te correleren.

517
00:36:21,840 --> 00:36:26,840
Niet voor alle onderzoeken, maar wat dit dus betekent, ik probeer het heel simpel uit te leggen,

518
00:36:26,840 --> 00:36:31,840
dit betekent dus dat de voorkeuren van mensen in die systemen terecht zijn gekomen,

519
00:36:31,840 --> 00:36:37,840
en dat je dus met die enorm grote taalmodellen bij bepaalde onderzoeken hypotheses al kan testen,

520
00:36:37,840 --> 00:36:41,840
voordat je überhaupt echte data gaat verzamelen met hulp van die taalmodellen.

521
00:36:41,840 --> 00:36:44,840
Dat die voorkeuren daarin zitten, dat is ook bias.

522
00:36:44,840 --> 00:36:50,840
Dat is toch briljant? In een wetenschappelijke wereld, waarin je sneller hypotheses kan testen,

523
00:36:50,840 --> 00:36:56,840
je kunt meteen aan de slag met je data, je kan allemaal dingen proberen nog voordat je überhaupt één respondent gesproken hebt.

524
00:36:56,840 --> 00:36:57,840
Dat vind ik briljant.

525
00:36:57,840 --> 00:37:03,840
En een stap daarna is als je een model gemaakt hebt, dus als je zelf een machine learning model maakt,

526
00:37:03,840 --> 00:37:11,840
kan je die ook weer laten testen op bias, en daarmee haal je ook de bias die in de data zit, die geeft die weer.

527
00:37:11,840 --> 00:37:18,840
Dus je hebt de mogelijkheid om te zeggen van, hé, maar dit model tussen aanhalingstekens discrimineert,

528
00:37:18,840 --> 00:37:25,840
kun je dus terug, dat je zegt van ja, maar welke data hebben we dan nog extra nodig? Hoe gaan we de data schonen?

529
00:37:25,840 --> 00:37:31,840
Het legt ook bloot wat er historisch gezien gebeurd is.

530
00:37:31,840 --> 00:37:41,840
Ik moet dan nu gelijk denken aan dat ze hadden gekeken naar in hoeverre kun je een taalmodel gebruiken om een willekeurig getal te genereren tussen 0 en 100.

531
00:37:41,840 --> 00:37:45,840
En weet je welk getal het meest voorkomt? 42.

532
00:37:45,840 --> 00:37:47,840
En waarom? Dat is het antwoord op alles.

533
00:37:47,840 --> 00:37:49,840
Dat is het antwoord op alles. Dat is toch briljant?

534
00:37:49,840 --> 00:37:50,840
Uit de film hè?

535
00:37:50,840 --> 00:37:55,840
Ja, ik weet even niet meer hoe je de film, of de Hitchhiker's...

536
00:37:55,840 --> 00:37:56,840
Guide to the Galaxy.

537
00:37:56,840 --> 00:38:03,840
Dat is hem, ja. En het boek volgens mij. En dat blijkt dus de bias te zijn. Dus precies wat je zegt, zo wordt het ook zichtbaar.

538
00:38:03,840 --> 00:38:05,840
Ik vind het wel een mooie extra functie.

539
00:38:05,840 --> 00:38:16,840
Ik was wel nieuwsgierig, als we naar de toekomst kijken, het onderwijs en waar het dan ook heen mag gaan, hoe zie jij de plek van AI over drie tot vijf jaar in het onderwijs?

540
00:38:16,840 --> 00:38:18,840
Even breed, jezelf heeft wel veel te roppen op een bepaald gebied.

541
00:38:18,840 --> 00:38:27,840
Ja, het is zo bizar. Er was een interview met Sam Altman, die directeur van OpenAI, bedrijf van ChatGPT.

542
00:38:27,840 --> 00:38:35,840
Ze hadden het over dat er een benchmark nu gehaald is door het nieuwe taalmodel, dat ik geloof tien jaar geleden nog dertig jaar weg zou zijn.

543
00:38:35,840 --> 00:38:43,840
Acht jaar geleden nog maar twintig jaar weg zou zijn en steeds minder, minder, minder. En nu hebben we hem dus binnen een paar jaar eigenlijk al bereikt.

544
00:38:43,840 --> 00:38:49,840
Binnen duizend dagen AGI, zegt hij. Daar vind ik wel wat van.

545
00:38:49,840 --> 00:38:56,840
Ja, precies. Ik heb het nu niet over AGI, maar de voorspellingen die we doen, daar bakken we niks van.

546
00:38:56,840 --> 00:39:00,840
We doen maar wat. Dat gaat zo ontzettend snel. Ik vind het heel moeilijk om die vraag te beantwoorden.

547
00:39:00,840 --> 00:39:07,840
Maar wat ik wel zie is dat er een soort discrepantie zit tussen wat we kunnen en wat we in de praktijk toepassen.

548
00:39:07,840 --> 00:39:18,840
Want we kunnen volgens mij echt ontzettend veel. Alleen voordat we allemaal een humanoid in ons huis hebben die de was voor ons doet, zijn we nog wel even een heel wat jaren verder.

549
00:39:18,840 --> 00:39:25,840
Als ik dat dan naar het onderwijs trek, we kunnen echt al fantastische, we kunnen essays automatisch laten nakijken, we kunnen feedback laten genereren.

550
00:39:25,840 --> 00:39:34,840
Je kunt er zelfs een school in Amerika die les laat geven door een AI-tutor met een virtuele avatar op beeld. Kan allemaal al. Maar het wordt niet ingezet.

551
00:39:34,840 --> 00:39:40,840
Waarom niet? Het is niet schaalbaar, de docenten kunnen het nog niet inzetten, er is angst, er is onwetendheid.

552
00:39:40,840 --> 00:39:45,840
Dus de hele onderwijssector staat er gewoon niet om bekend om snel te kunnen meebewegen.

553
00:39:45,840 --> 00:39:49,840
En dat is misschien in sommige gevallen maar goed ook. Vertragen is soms ook goed.

554
00:39:49,840 --> 00:40:00,840
Dus terug te komen op jouw vraag, over drie tot vijf jaar denk ik dat we van de echte pioniers over zijn naar de early adopters en zullen we steeds meer use cases zien.

555
00:40:00,840 --> 00:40:08,840
Maar ik zie toch ook nog wel in de sessies die ik doe met docenten, als ik een keynote geef, dat echt wel een derde van de mensen het nog nooit iets van een AI-tool gezien heeft.

556
00:40:08,840 --> 00:40:17,840
Dus ik denk we zitten echt nog niet op de early majority die al echt bezig is met adoptie over drie tot vijf jaar.

557
00:40:17,840 --> 00:40:22,840
Dus de toepassingen zullen veel beter zijn, maar de adoptie zal nog wat achterblijven. Dat is mijn voorspelling.

558
00:40:22,840 --> 00:40:29,840
En wat zouden de luisteraars die collega's kennen die er nog niet zo in zitten, naast aanmoedigen om naar podcasts te luisteren natuurlijk.

559
00:40:29,840 --> 00:40:36,840
Wat zouden ze de eerste stap die ze kunnen zetten?

560
00:40:36,840 --> 00:40:43,840
Ja, ik zeg eigenlijk, in mijn sessie zeg ik altijd ik ben kritisch optimistisch. Dus ik zie kansen, ik zie de risico's.

561
00:40:43,840 --> 00:40:51,840
En volgens mij kun je alleen maar de kansen benutten en de risico's indammen als je deze technologie door en door kent.

562
00:40:51,840 --> 00:40:56,840
Dus ik vind dat iedereen een soort verantwoordelijkheid heeft om ermee bekend te raken.

563
00:40:56,840 --> 00:41:03,840
Ik vind ook dat dat gefaciliteerd moet worden in het onderwijs. Dus ik vind dat docenten ruimte moeten krijgen om hiermee te gaan experimenteren.

564
00:41:03,840 --> 00:41:10,840
Dat vraagt ook iets van de toetssysteem. Dus dat we wat minder vanuit het fraude, foei dat mag niet gaan denken, maar meer vanuit vertrouwen.

565
00:41:10,840 --> 00:41:13,840
Ik weet het ook niet, laten we samen ontdekken waar dit heen kan gaan.

566
00:41:13,840 --> 00:41:17,840
En begin dan klein. Je hoeft niet echt je hele onderwijs in de prullenbak te gooien.

567
00:41:17,840 --> 00:41:24,840
Als je al van het fraude naar het vertrouwen narratief weet te gaan, dan wordt het een ontdekkingsreis samen met je leerlingen of studenten.

568
00:41:24,840 --> 00:41:31,840
En ga vanuit daar kleine stapjes zetten. En benut AI daarbij. Je kunt gewoon aan ChatGPT de vraag stellen.

569
00:41:31,840 --> 00:41:36,840
Dit zijn mijn leerdoelen, dit zijn mijn toetsnormen, dit zijn mijn activiteiten. Doe eens even een analyse alsjeblieft.

570
00:41:36,840 --> 00:41:41,840
Dat kan je al heel veel ideeën geven. Dus begin op die manier klein, maar ga wel aan de slag.

571
00:41:41,840 --> 00:41:44,840
Want ik vind het eigenlijk onethisch om onze jeugd er niet op voor te breiden.

572
00:41:44,840 --> 00:41:50,840
En inderdaad, het kan bijna niet meer dat je zelf niet eens een keer gewoon geopend hebt, geprobeerd hebt.

573
00:41:50,840 --> 00:41:55,840
Het is zo'n disruptieve technologie. Ik sla daar soms stel van achterover.

574
00:41:55,840 --> 00:42:03,840
In april is ons boek uitgekomen 'Beter leuker sneller'. Met twee andere toppers, Jean-Luc en Ilona.

575
00:42:03,840 --> 00:42:09,840
En wij zeiden op een gegeven moment, nu hebben we dit boek geschreven, we hebben ons zo in het verdiept, nu weet iedereen het toch wel.

576
00:42:09,840 --> 00:42:13,840
En dan zijn we op een gegeven moment sessies aan het plannen in september volgend jaar.

577
00:42:13,840 --> 00:42:20,840
Nog steeds worden we hiervoor gevraagd. Dat laat toch wel zien dat wij in een bubbel zitten en dat de samenleving nog niet overal mee is.

578
00:42:20,840 --> 00:42:27,840
Ja, en wat je zegt, het verschil tussen dat wat we kunnen en de adoptie, daar zit een enorme vertraging in.

579
00:42:27,840 --> 00:42:28,840
Merken jullie dat ook in jullie?

580
00:42:28,840 --> 00:42:34,840
Zeker, ook in het bedrijfsleven zie je dit hetzelfde. Ik spreek ook heel veel keynote.

581
00:42:34,840 --> 00:42:43,840
Vraag ik het ook altijd. Standaard in mijn presentaties laat ik toch ook even zien hoe ChatGPT eruit ziet, wat je doet, dat je een vraag en antwoord krijgt.

582
00:42:43,840 --> 00:42:45,840
Omdat mensen het gewoon nog nooit gezien hebben.

583
00:42:45,840 --> 00:42:50,840
Ik ben dat nu ook gaan doen, omdat ik eerst dacht, ah joh, iedereen weet het wel, maar dat is helemaal niet zo.

584
00:42:50,840 --> 00:42:55,840
En net wat je zegt, zo'n kwart, een derde, dat zijn wel de aantallen die ik herken.

585
00:42:55,840 --> 00:43:02,840
Ja, en wat ik nu aan moet denken is, ik ben ook wel benieuwd welke rol de overheid hier gaat pakken.

586
00:43:02,840 --> 00:43:08,840
Want we hadden in het vorige kabinet die overheidsbrede visie generatieve AI bijvoorbeeld. Prachtige dingen stonden daarin.

587
00:43:08,840 --> 00:43:09,840
Nu is er een nieuw kabinet.

588
00:43:09,840 --> 00:43:12,840
Die zijn met hele andere dingen bezig.

589
00:43:12,840 --> 00:43:18,840
Kom op, asielcrisis. En over onderwijs staan er maar een paar woorden in.

590
00:43:18,840 --> 00:43:22,840
Ik weet niet, ik maak me daar wel soms een beetje zorgen over.

591
00:43:22,840 --> 00:43:28,840
Alhoewel ik wel wil erkennen dat het veld echt als een malle bezig is hiermee.

592
00:43:28,840 --> 00:43:35,840
En het daalt in dat we hier iets mee moeten. En met moeten bedoel ik dan niet dat ze mallen allemaal geld uitgeven om allemaal licenties te kopen.

593
00:43:35,840 --> 00:43:37,840
Maar even nadenken, wat betekent dit voor ons?

594
00:43:37,840 --> 00:43:42,840
De schoolleider moet aan de bak met beleid en protocollen en facilitering en infrastructuur.

595
00:43:42,840 --> 00:43:49,840
En de docenten moeten aan de bak om het onderwijs valide te houden en eigen tijds.

596
00:43:49,840 --> 00:43:51,840
Dus werk aan de winkel.

597
00:43:51,840 --> 00:43:55,840
Lijkt me een hele mooie afsluiter.

598
00:43:55,840 --> 00:43:59,840
Dankjewel Barend voor ontzettend veel inzichten.

599
00:43:59,840 --> 00:44:05,840
Voor mij was het eigenlijk van niet iedereen hoeft creatief te zijn. Normatief.

600
00:44:05,840 --> 00:44:09,840
Die ga ik onthouden vanuit dit gesprek. Dankjewel.

601
00:44:09,840 --> 00:44:10,840
Dankjewel.

602
00:44:10,840 --> 00:44:18,840
Leuk dat je weer luisterde naar deze aflevering. Ik hoop dat je er net zo van genoten hebt als dat wij dat gedaan hebben.

603
00:44:18,840 --> 00:44:25,840
Wil jij nou AI ook bespreekbaar maken? Dan kan dat met ons gratis kaartspel AI Game Changer.

604
00:44:25,840 --> 00:44:27,840
En die kan je bestellen via onze website.

605
00:44:27,840 --> 00:44:32,840
En dan kan je beginnen met het verkennen van AI beleid en strategieën op een ontzettend leuke manier.

606
00:44:32,840 --> 00:44:35,840
De link vind je in de show notes. Dankjewel.

607
00:44:35,840 --> 00:44:37,840
Tot de volgende keer.


People on this episode