
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S07E35 - Waarom is AI voor iedereen belangrijk volgens Erdinç Saçan?
Erdinç Saçan, docent en onderzoeker bij Fontys Hogescholen, bespreekt de impact van AI op de samenleving in deze aflevering van AIToday Live. Als auteur van "AI voor iedereen" deelt hij zijn visie op de kansen en uitdagingen van kunstmatige intelligentie.
Saçan benadrukt het belang van AI-geletterdheid en pleit voor een grootschalig plan om mensen AI-vaardig te maken. De podcast belicht positieve toepassingen van AI, zoals in de gezondheidszorg en het behoud van inheemse talen.
Ethische overwegingen en de noodzaak om onderwijscurricula aan te passen aan de AI-realiteit komen ook aan bod. Saçan deelt persoonlijke ervaringen en spreekt de hoop uit dat AI uiteindelijk zal leiden tot meer menselijk contact en diepgaande gesprekken.
Onderwerpen
- AI-geletterdheid en het vergroten van kennis over AI
- Positieve toepassingen van AI in diverse sectoren
- Ethische overwegingen en risico's van AI
- Aanpassing van onderwijscurricula aan AI
- Persoonlijke ervaringen met AI
- Boek: AI voor Iedereen
- Podcast: Fontys AI Garage
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: Fontys Hogescholen
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:05,560
In deze aflevering hoor je Erdinç Saçan, auteur van AI voor Iedereen, die ons meeneemt in
2
00:00:05,560 --> 00:00:10,280
een wereld waar AI zowel levens transformeert als ethische grenzen aftast.
3
00:00:10,280 --> 00:00:15,740
Erdinc deelt openhartig persoonlijke verhalen van zijn ouders die onterecht op een fraude
4
00:00:15,740 --> 00:00:20,440
lijst belanden, tot confrontaties met docenten die worstelen met nieuwe technologie.
5
00:00:20,440 --> 00:00:23,719
Erdinç heeft het allemaal van dichtbij meegemaakt.
6
00:00:23,719 --> 00:00:29,160
Luister naar dit gesprek, dat je zal laten nadenken over hoe AI jouw leven al beïnvloedt,
7
00:00:29,160 --> 00:00:30,799
vaak zonder dat je het doorhebt.
8
00:00:30,800 --> 00:00:31,799
[Muziek]
9
00:00:31,799 --> 00:00:32,799
[Muziek]
10
00:00:32,799 --> 00:00:36,159
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.
11
00:00:36,159 --> 00:00:38,519
Mijn naam Joop Snijder, CTO bij Aigency.
12
00:00:38,519 --> 00:00:41,439
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.
13
00:00:41,439 --> 00:00:43,519
En vandaag hebben we te gast Erdinç Saçan.
14
00:00:43,519 --> 00:00:47,399
Erdins, ontzettend leuk dat je naar onze studio wilde komen.
15
00:00:47,399 --> 00:00:50,719
Zou je eerst willen voorstellen aan de luisteraars?
16
00:00:50,719 --> 00:00:52,559
Heel erg leuk dat jullie me hebben uitgenodigd.
17
00:00:52,559 --> 00:00:54,279
Ik luister met plezier naar jullie podcast.
18
00:00:54,279 --> 00:00:54,879
Oh, wat leuk.
19
00:00:54,879 --> 00:00:56,839
Mijn naam is dus Erdinç Saçan.
20
00:00:56,839 --> 00:01:01,319
Ik ben docent en onderzoeker bij Frontis Hogescholen in Eindhoven en Tilburg.
21
00:01:01,779 --> 00:01:05,459
En ik mag lid zijn van de Center of Expertise.
22
00:01:05,459 --> 00:01:06,579
Mooie naam hebben ze het in gevoerd.
23
00:01:06,579 --> 00:01:07,099
Zeker vol.
24
00:01:07,099 --> 00:01:10,379
Center of Expertise of AI for Society.
25
00:01:10,379 --> 00:01:13,339
Dus wij proberen ons wel te richten op AI for Society.
26
00:01:13,339 --> 00:01:14,359
Bij ons.
27
00:01:14,359 --> 00:01:16,959
En ik ben actief voor het lectoraat daar.
28
00:01:16,959 --> 00:01:21,459
Om onderzoek te doen naar de impact van AI op onderwijs.
29
00:01:21,459 --> 00:01:25,379
Vooral, maar ook op bedrijfsleven en ook op studenten, et cetera.
30
00:01:25,379 --> 00:01:30,839
Ja, en naast docent vertelde je ons ook bij je spreker over dit onderwerp.
31
00:01:30,839 --> 00:01:34,879
En waarom we je vooral hebben uitgenodigd is omdat je een boek hebt geschreven.
32
00:01:34,879 --> 00:01:35,779
AI voor iedereen.
33
00:01:35,779 --> 00:01:37,179
Dat klopt.
34
00:01:37,179 --> 00:01:43,399
Ik mag naast mijn rol als docent en onderzoeker ook het een en ander buiten primaire onderwijs.
35
00:01:43,399 --> 00:01:44,719
Primaire werkzaamheden doen.
36
00:01:44,719 --> 00:01:46,519
Dat valt onder de secundaire.
37
00:01:46,519 --> 00:01:48,319
Maar je leert er zelf ook veel van.
38
00:01:48,639 --> 00:01:52,959
Dus ik heb mijn laatste boek uitgebracht, AI voor iedereen, eind januari uitgebracht.
39
00:01:52,959 --> 00:01:55,859
En mag ik daar wat over vertellen?
40
00:01:55,859 --> 00:01:57,039
Ja, heel graag zelfs.
41
00:01:57,039 --> 00:02:03,219
De bedoeling was om een boek te schrijven waar ik alleen maar positieve voorbeelden over AI wilde gaan vertellen.
42
00:02:03,219 --> 00:02:03,539
Oh ja.
43
00:02:03,539 --> 00:02:05,499
Ik was bij een conferentie.
44
00:02:05,499 --> 00:02:05,579
Want?
45
00:02:05,579 --> 00:02:05,879
Want?
46
00:02:05,879 --> 00:02:06,759
Waarom die keuze?
47
00:02:06,759 --> 00:02:07,839
Ik was bij een conferentie.
48
00:02:07,839 --> 00:02:10,158
Het heet AI for Good conferentie.
49
00:02:10,158 --> 00:02:11,499
Het wordt in Genève georganiseerd.
50
00:02:11,499 --> 00:02:12,479
Echt een leuke conferentie.
51
00:02:12,479 --> 00:02:14,279
Volgens mij de zesde keer al.
52
00:02:15,099 --> 00:02:21,019
Waarin twee dagen lang alleen maar voorbeelden te zien zijn waarin AI mensen helpt.
53
00:02:21,019 --> 00:02:30,039
Dan moet je denken aan gezondheidszorg, tot aan onderwijs, van bedrijfsleven, maar tot aan maatschappelijk veld.
54
00:02:30,039 --> 00:02:33,699
En ik dacht, wij moeten meer aandacht geven voor AI for Good.
55
00:02:33,699 --> 00:02:34,959
Zo heet die conferentie ook.
56
00:02:34,959 --> 00:02:42,099
Want er is te veel aandacht, en ik zeg niet dat het onterecht is, aan de donkere kant.
57
00:02:42,099 --> 00:02:44,599
De dark side van AI.
58
00:02:44,599 --> 00:02:46,279
Helemaal mee eens.
59
00:02:46,279 --> 00:02:50,179
Ja, maar toen ik begon aan het boek was dat het idee.
60
00:02:50,179 --> 00:02:54,479
Maar als je mensen spreekt, ik heb echt meer dan zestig mensen mogen spreken in binnen- en buitenland.
61
00:02:54,479 --> 00:02:57,019
Ik heb ook Gary Marcus geprobeerd te benaderen.
62
00:02:57,019 --> 00:03:00,779
In mijn eerste boek, die gratis beschikbaar is, staat hij wel in.
63
00:03:00,779 --> 00:03:05,179
En Gary Marcus is nogal, hoe zouden we het zeggen?
64
00:03:05,179 --> 00:03:06,079
Ja, kritisch.
65
00:03:06,079 --> 00:03:11,959
Maar ook andere bekendheden in het internationale veld.
66
00:03:11,959 --> 00:03:13,919
Ze reageren wel allemaal.
67
00:03:14,059 --> 00:03:15,119
Daar was ik ook verbaasd over.
68
00:03:15,119 --> 00:03:17,739
Bedankt maar, we hebben geen tijd.
69
00:03:17,739 --> 00:03:28,079
Maar dus gaandeweg de rit ontdekte ik dat je niet alleen een boek kan schrijven waarin alleen de positieve kanten naar voren gekomen.
70
00:03:28,079 --> 00:03:29,299
Snap ik.
71
00:03:30,039 --> 00:03:34,299
Ik moet zeggen, en dat heb ik je net ook gezegd, ik heb het echt met heel veel plezier gelezen.
72
00:03:34,299 --> 00:03:40,119
En ik denk, wij weten al best wel wat van deze technologie.
73
00:03:40,119 --> 00:03:49,479
En het heeft me, juist omdat je zoveel verschillende experts en zoveel verschillende perspectieven eigenlijk hebt gebruikt, was het heel fijn om te lezen.
74
00:03:50,199 --> 00:03:54,819
Wat ik eigenlijk wel benieuwd naar was, want het boek heet AI voor iedereen.
75
00:03:54,819 --> 00:03:56,899
Waarom zou AI voor iedereen moeten zijn?
76
00:03:57,839 --> 00:04:05,539
Ja, het begint dus, als je kijkt naar de ethische AI, of fairness, AI voor goed.
77
00:04:05,539 --> 00:04:08,879
AI wordt nu, wij zitten in een bubbel, dat weten jullie ook.
78
00:04:08,879 --> 00:04:10,019
Wij zitten continu in een bubbel.
79
00:04:10,099 --> 00:04:15,259
Ik word helemaal gek soms van LinkedIn, omdat het alleen maar lijkt te gaan over AI.
80
00:04:15,259 --> 00:04:17,579
Terwijl er echt veel meer is in de wereld.
81
00:04:17,579 --> 00:04:20,839
Heel soms krijg je iets van Metaverse nog, of van XR.
82
00:04:20,839 --> 00:04:27,359
Maar heel veel familieleden van mij, veel meer vrienden van mij, die zijn daar helemaal niet mee bezig.
83
00:04:27,359 --> 00:04:33,279
Die hebben misschien een paar keer iets geprobeerd in ChatGPT of Copilot.
84
00:04:33,739 --> 00:04:40,539
Maar voor de rest weten ze niets van die andere 28.000 ongeveer tools, die je kunt zien bij There is an AI, There is an AI for that.
85
00:04:40,539 --> 00:04:43,619
En ze gebruiken het voor hele simpele dingen.
86
00:04:43,619 --> 00:04:52,679
Maar we zien wel dat overheid, zo'n bedrijfsleven, steeds meer gebruik maakt van algoritmes om bepaalde beslissingen te nemen.
87
00:04:52,679 --> 00:05:03,619
Dus ik dacht, we moeten, nou ik denk, ik ben niet de enige, we moeten met z'n allen eigenlijk ervoor zorgen dat wij mensen weten dat er ook iets is als AI.
88
00:05:03,619 --> 00:05:12,699
En die ook soms ons pusht, dwingt, nudged, zoals, ik weet niet of je dat zo kan zeggen, richting een bepaalde beslissing.
89
00:05:12,699 --> 00:05:14,479
Richting een bepaalde keuze.
90
00:05:14,479 --> 00:05:16,099
Daarom AI voor iedereen.
91
00:05:16,099 --> 00:05:18,499
Dat we het allemaal weten, dat we het snappen.
92
00:05:18,499 --> 00:05:20,819
Ik heb het niet over de techniek.
93
00:05:20,819 --> 00:05:23,599
Ik vertel eigenlijk bijna nooit over techniek.
94
00:05:24,079 --> 00:05:33,039
Als ik in de zaal kom, mijn meest technische slide is een slide waarin je uitlegt hoe large language models tot een bepaalde woord komen.
95
00:05:33,039 --> 00:05:34,559
Maar dat skip ik dan ook heel snel door.
96
00:05:34,559 --> 00:05:37,259
Want mensen zijn er helemaal niet mee bezig.
97
00:05:37,259 --> 00:05:38,379
Die willen gewoon de toepassing zien.
98
00:05:38,379 --> 00:05:40,499
Ja, dus omdat het iedereen raakt.
99
00:05:40,499 --> 00:05:43,239
Een bewustwording van, hé, maar zo kan het je raken.
100
00:05:43,239 --> 00:05:43,939
Het is er al.
101
00:05:43,939 --> 00:05:45,079
Hier zie je het.
102
00:05:45,079 --> 00:05:46,159
En dit kan het effect zijn.
103
00:05:46,159 --> 00:05:49,359
En heeft het misschien al op je eigen leven en bedrijfsleven.
104
00:05:49,999 --> 00:05:53,099
Voor mij was het mijn eerste aanraking met algoritmes.
105
00:05:53,099 --> 00:05:53,959
Mijn ouders.
106
00:05:53,959 --> 00:05:55,179
Ik ben van Turks afkomst.
107
00:05:55,179 --> 00:06:00,519
En beide ouders stonden in de belastingdienst op de lijst van FSV.
108
00:06:00,519 --> 00:06:00,999
Fraude.
109
00:06:00,999 --> 00:06:02,159
Nog iets.
110
00:06:02,159 --> 00:06:04,559
Een soort detectiesysteem.
111
00:06:04,559 --> 00:06:08,739
Ik heb briefwisseling gehad met de belastingdienst.
112
00:06:08,739 --> 00:06:10,299
Waarom stonden ze op die lijst?
113
00:06:10,299 --> 00:06:11,579
Ze waren niet de enigen.
114
00:06:11,579 --> 00:06:13,059
Er waren ongeveer 240.000 mensen.
115
00:06:13,059 --> 00:06:18,839
Het was een lijst waarin AVG niet klopte.
116
00:06:19,299 --> 00:06:20,499
Te veel medewerkers had toegang.
117
00:06:20,499 --> 00:06:21,699
Het werd te veel bewaard.
118
00:06:21,699 --> 00:06:24,459
Dus het is niet zoals de toeslagenaffaire.
119
00:06:24,459 --> 00:06:28,099
Maar een soort andere problemen bij de belastingdienst.
120
00:06:28,099 --> 00:06:30,179
En wat voor problemen leverde dat op?
121
00:06:30,179 --> 00:06:31,319
Voor sommige mensen.
122
00:06:31,319 --> 00:06:33,439
Want het werd ook gebruikt voor andere doeleinden.
123
00:06:33,439 --> 00:06:36,739
Dus de lijst werd ook misschien gebruikt voor krediet.
124
00:06:36,739 --> 00:06:38,999
Of voor verzekeringen.
125
00:06:38,999 --> 00:06:43,379
En gelukkig zijn mijn beide ouders volgens de belastingdienst...
126
00:06:43,379 --> 00:06:45,239
niet in zo'n traject terechtgekomen.
127
00:06:45,879 --> 00:06:48,279
Maar de reden waarom ze erop stonden...
128
00:06:48,279 --> 00:06:49,899
heb ik er wel uitgekregen.
129
00:06:49,899 --> 00:06:51,939
Ik dacht van buitenlands achternaam.
130
00:06:51,939 --> 00:06:55,519
Maar mijn vader had wat gedoneerd aan de moskee.
131
00:06:55,519 --> 00:06:56,419
Oh ja.
132
00:06:56,419 --> 00:06:57,919
Dus dat is ook een trigger.
133
00:06:57,919 --> 00:06:58,619
Oké dan.
134
00:06:58,619 --> 00:06:59,659
Het kan dus van alles zijn.
135
00:06:59,659 --> 00:07:02,119
En daarom stond hij op de lijst.
136
00:07:02,119 --> 00:07:02,699
Zo dan.
137
00:07:02,699 --> 00:07:03,759
En pittig.
138
00:07:03,759 --> 00:07:04,819
Ja, dat was niet fijn.
139
00:07:04,819 --> 00:07:07,599
Dat heeft me getriggerd om mijn eerste boek te schrijven...
140
00:07:07,599 --> 00:07:10,399
die ik gratis uitgedeeld heb over inclusieve heren.
141
00:07:11,039 --> 00:07:13,439
En was het veel moeite om contact te krijgen...
142
00:07:13,439 --> 00:07:15,479
en reacties en antwoorden te krijgen?
143
00:07:15,479 --> 00:07:20,459
Nee, want op dat moment zie je dat er een groepering ontstaat.
144
00:07:20,459 --> 00:07:21,839
We hadden standaardbrieven.
145
00:07:21,839 --> 00:07:22,799
Weet je wel.
146
00:07:22,799 --> 00:07:23,879
En dan stuur je dat ook op.
147
00:07:23,879 --> 00:07:27,159
En volgens mij wist de belastingdienst wat er aankwam.
148
00:07:29,519 --> 00:07:34,759
Wij trappen eigenlijk ook meteen in de valkuil om meteen naar de dark side te kijken.
149
00:07:34,759 --> 00:07:37,539
Ze hebben een positieve...
150
00:07:37,539 --> 00:07:38,939
Terechte constatering.
151
00:07:38,939 --> 00:07:43,999
Ze hebben een positieve die je misschien ook in je boek beschreven hebt.
152
00:07:43,999 --> 00:07:47,219
Een positief voorbeeld waarvan je zegt van...
153
00:07:47,219 --> 00:07:49,519
hé, maar hier heeft AI echt een bijdrage geleverd.
154
00:07:49,519 --> 00:07:52,519
Het zijn er echt heel veel.
155
00:07:53,479 --> 00:07:56,199
Wat het meest heeft geraakt was op die conferentie...
156
00:07:56,199 --> 00:08:00,759
was er een bedrijf die met ALS-patiënten werkte.
157
00:08:00,759 --> 00:08:03,399
En er was een persoon die live in beeld kwam.
158
00:08:03,399 --> 00:08:06,219
Helaas thuis, niet op locatie.
159
00:08:06,219 --> 00:08:09,239
Die dankzij AI een stem had.
160
00:08:09,239 --> 00:08:10,159
Zijn eigen stem.
161
00:08:10,159 --> 00:08:13,119
En die dan met familieleden kon praten.
162
00:08:13,119 --> 00:08:14,419
En hij moest daarbij huilen.
163
00:08:14,419 --> 00:08:16,819
De hele zaal was muisstil.
164
00:08:16,819 --> 00:08:18,279
Je kon gewoon een naald horen vallen.
165
00:08:18,999 --> 00:08:21,019
Dat is bijvoorbeeld iets...
166
00:08:21,019 --> 00:08:22,439
Als je dus je stem kwijt bent.
167
00:08:22,439 --> 00:08:24,119
Als je slecht hoort.
168
00:08:24,119 --> 00:08:26,419
Als je slechtziend bent.
169
00:08:26,419 --> 00:08:29,759
Als je dus een arm mist en je gebruikt een prothese.
170
00:08:29,759 --> 00:08:33,499
En door AI dat die prothese weet van...
171
00:08:33,499 --> 00:08:36,179
hé, ik moet een framboos anders pakken dan een appel.
172
00:08:36,179 --> 00:08:42,099
Vooral in de gezondheidszorg zie je dus hele mooie toepassingen.
173
00:08:42,099 --> 00:08:44,099
Maar ik zag ook bijvoorbeeld op die conferentie...
174
00:08:44,099 --> 00:08:45,419
en er zijn heel vaker...
175
00:08:45,419 --> 00:08:47,439
dat mensen weer kunnen lopen.
176
00:08:47,619 --> 00:08:50,059
tussen aanhalingstekens met behoorlijk van AI.
177
00:08:50,059 --> 00:08:52,499
Maar ook een heel ander voorbeeld.
178
00:08:52,499 --> 00:08:55,239
Ik volg nu een meneer uit Amerika.
179
00:08:55,239 --> 00:08:58,679
Hij heet Michael Running Wolf.
180
00:08:58,679 --> 00:09:00,999
Hij is een indiaan.
181
00:09:00,999 --> 00:09:05,259
En die probeert dus met behoorlijk van AI zijn taal te bewaren.
182
00:09:05,259 --> 00:09:06,639
Dus indigenous people...
183
00:09:06,639 --> 00:09:09,939
talen die niet vaak voorkomen...
184
00:09:09,939 --> 00:09:11,639
en die eigenlijk niet getraind zijn...
185
00:09:11,639 --> 00:09:12,999
worden nu...
186
00:09:12,999 --> 00:09:14,839
Ja, ze proberen daar...
187
00:09:14,839 --> 00:09:17,279
het weer in...
188
00:09:17,279 --> 00:09:18,619
ja, op te wekken...
189
00:09:18,619 --> 00:09:20,259
of ervoor te zorgen dat het blijft.
190
00:09:20,259 --> 00:09:21,739
Door het dan...
191
00:09:21,739 --> 00:09:23,659
door dingen aan te leveren?
192
00:09:23,659 --> 00:09:25,099
Ja, door dingen aan te leveren...
193
00:09:25,099 --> 00:09:27,439
of ervoor te zorgen dat mensen dankzij...
194
00:09:27,439 --> 00:09:30,199
AI nu ook in hun eigen taal kunnen spreken.
195
00:09:30,199 --> 00:09:32,299
Met een digitaal stem.
196
00:09:32,839 --> 00:09:35,139
Waardoor ze dus ook hopelijk het niet meer vergeten.
197
00:09:35,139 --> 00:09:35,799
Want je weet...
198
00:09:35,799 --> 00:09:36,619
ja...
199
00:09:36,619 --> 00:09:37,999
als je eenmaal Frans hebt geleerd...
200
00:09:37,999 --> 00:09:39,459
en je doet er tien jaar niks aan...
201
00:09:39,459 --> 00:09:40,579
dan is de kans aan...
202
00:09:40,579 --> 00:09:41,819
Dat zag toch echt weg, ja.
203
00:09:41,819 --> 00:09:42,159
Ja.
204
00:09:44,499 --> 00:09:46,359
Maar ook bijvoorbeeld...
205
00:09:46,359 --> 00:09:49,659
voedseldistributie...
206
00:09:49,659 --> 00:09:51,539
voorbeelden van...
207
00:09:51,539 --> 00:09:53,939
meldingen van klimaat.
208
00:09:53,939 --> 00:09:54,659
Ja.
209
00:09:54,659 --> 00:09:55,739
Waar komt de tsunami?
210
00:09:55,739 --> 00:09:57,239
Daar is Google vooral mee bezig.
211
00:09:57,239 --> 00:10:00,239
En volgens mij zijn ze nog niet 100% accuraat.
212
00:10:00,239 --> 00:10:01,999
Maar hoe mooi zou dat zijn...
213
00:10:01,999 --> 00:10:04,699
als dat ons als mensheid kan verder helpen.
214
00:10:04,699 --> 00:10:04,859
Ja.
215
00:10:04,859 --> 00:10:06,879
En dat gaat verder dan generatieve AI?
216
00:10:06,879 --> 00:10:08,079
Dat gaat veel verder, hè.
217
00:10:08,079 --> 00:10:08,279
Ja.
218
00:10:08,279 --> 00:10:11,999
Maar je ziet ook voorbeelden van generatieve AI...
219
00:10:11,999 --> 00:10:13,439
die gebruikt worden.
220
00:10:13,539 --> 00:10:14,619
bijvoorbeeld...
221
00:10:14,619 --> 00:10:17,999
denk maar aan de app...
222
00:10:17,999 --> 00:10:18,679
Lees Simple.
223
00:10:18,679 --> 00:10:19,659
Ja.
224
00:10:19,659 --> 00:10:21,659
Of mijn ouders zijn laaggeletterd.
225
00:10:21,659 --> 00:10:24,039
Mijn moeder is analfabeet.
226
00:10:24,039 --> 00:10:25,659
Die zou...
227
00:10:25,659 --> 00:10:26,579
Dat doet ze nog niet, hè.
228
00:10:26,579 --> 00:10:27,259
Maar die zou...
229
00:10:27,259 --> 00:10:28,739
die zou met zo'n AI-model...
230
00:10:28,739 --> 00:10:30,399
Er zijn voorbeelden, vrouwen, trouwens...
231
00:10:30,399 --> 00:10:33,039
van eenzame ouders...
232
00:10:33,039 --> 00:10:35,739
die met zo'n AI-model aan het koken zijn samen.
233
00:10:35,739 --> 00:10:36,059
Oh ja.
234
00:10:36,059 --> 00:10:36,279
Oh.
235
00:10:36,279 --> 00:10:39,379
Ik zag het niet bij mijn moeder...
236
00:10:39,379 --> 00:10:40,959
maar bij een voorbeeld...
237
00:10:40,959 --> 00:10:42,699
een voorbeeld uit Turkije toevallig...
238
00:10:42,699 --> 00:10:43,859
waar een mevrouw...
239
00:10:43,859 --> 00:10:45,079
iedere ochtend opstaat...
240
00:10:45,079 --> 00:10:45,999
en denkt van...
241
00:10:45,999 --> 00:10:47,319
dat is een belangrijke vraag...
242
00:10:47,319 --> 00:10:48,619
wat kan ik vanavond koken?
243
00:10:48,619 --> 00:10:48,919
Ja.
244
00:10:48,919 --> 00:10:51,359
Dat stelt ze dan aan aan jij.
245
00:10:51,359 --> 00:10:51,779
Ja.
246
00:10:51,779 --> 00:10:53,859
Maar ik vind het hele idee...
247
00:10:53,859 --> 00:10:54,819
van wat je eigenlijk zegt...
248
00:10:54,819 --> 00:10:55,079
van...
249
00:10:55,079 --> 00:10:56,879
als je analfabeet bent...
250
00:10:56,879 --> 00:10:58,139
en je zou inderdaad...
251
00:10:58,139 --> 00:10:59,279
met een app...
252
00:10:59,279 --> 00:10:59,699
en het kan...
253
00:10:59,699 --> 00:11:01,699
het in een eenvoudige taal voorlezen...
254
00:11:01,699 --> 00:11:04,899
dan moet er bijna een wereld voor je opengaan.
255
00:11:04,899 --> 00:11:05,099
Ja.
256
00:11:05,099 --> 00:11:07,839
Hoe mooi is het als je...
257
00:11:07,839 --> 00:11:10,699
Google Homes of de Alexa Series...
258
00:11:10,699 --> 00:11:11,719
op zo'n...
259
00:11:11,719 --> 00:11:13,959
als je daar een large language model in kan bouwen...
260
00:11:13,959 --> 00:11:15,699
zodat je wel...
261
00:11:15,699 --> 00:11:17,619
een goed gesprek kunt voeren.
262
00:11:17,619 --> 00:11:18,099
Ja.
263
00:11:18,099 --> 00:11:18,899
Tussen aanhalingstekens.
264
00:11:18,899 --> 00:11:20,079
Nou, Niels...
265
00:11:20,079 --> 00:11:21,679
die ik frequent gebruik...
266
00:11:21,679 --> 00:11:23,439
en ik heb vanochtend nog in de auto...
267
00:11:23,439 --> 00:11:24,379
weer een gesprek gehad...
268
00:11:24,379 --> 00:11:25,119
met ChatGPT.
269
00:11:25,119 --> 00:11:25,899
Onder andere ook...
270
00:11:25,899 --> 00:11:27,359
nog even extra voorbereiding...
271
00:11:27,359 --> 00:11:27,819
voor vandaag...
272
00:11:27,819 --> 00:11:28,399
voor dit gesprek.
273
00:11:28,399 --> 00:11:29,739
En dan probeer ik inderdaad...
274
00:11:29,739 --> 00:11:31,259
altijd nog gewoon vragen te stellen.
275
00:11:31,259 --> 00:11:33,119
Dat kan voorbereidingen zijn...
276
00:11:33,119 --> 00:11:34,439
voor het gesprek...
277
00:11:34,439 --> 00:11:34,999
wat we nu hebben.
278
00:11:34,999 --> 00:11:36,119
Gewoon je achtergrond.
279
00:11:36,119 --> 00:11:37,939
Zijn er nog leuke nieuwtjes...
280
00:11:37,939 --> 00:11:39,359
of feitjes die dan naar boven komen?
281
00:11:39,359 --> 00:11:40,479
Ik moet wel zeggen...
282
00:11:40,479 --> 00:11:42,199
dat het searchen naar personen...
283
00:11:42,199 --> 00:11:43,759
nog echt wel een uitdaging vaak is.
284
00:11:43,759 --> 00:11:45,859
Het scheelt dat je een boek geschreven hebt...
285
00:11:45,859 --> 00:11:47,019
en je ook veel podcasts hebt.
286
00:11:47,019 --> 00:11:48,119
Dus daar kwam heel veel van terug.
287
00:11:48,739 --> 00:11:51,419
Maar ik bel dus heel regelmatig in de auto...
288
00:11:51,419 --> 00:11:52,459
om dingen voor te bereiden.
289
00:11:52,459 --> 00:11:54,599
Dus mijn meetings van de volgende dag...
290
00:11:54,599 --> 00:11:56,059
door eigenlijk uit te spreken...
291
00:11:56,059 --> 00:11:56,819
van wat moet ik dan gaan doen?
292
00:11:56,819 --> 00:11:57,719
Ben ik erover aan het nadenken?
293
00:11:57,719 --> 00:11:58,459
Ben ik aan het sparren?
294
00:11:58,459 --> 00:11:59,919
En vervolgens als ik thuis kom...
295
00:11:59,919 --> 00:12:00,979
heb ik mijn eerste document...
296
00:12:00,979 --> 00:12:02,299
of mijn mail al klaarstaan.
297
00:12:02,299 --> 00:12:04,279
Ja, dat is prima.
298
00:12:04,279 --> 00:12:05,739
Dat is precies het voorbeeld...
299
00:12:05,739 --> 00:12:08,019
hoe ik ook mijn boek heb geschreven.
300
00:12:08,019 --> 00:12:09,739
Ik sprak heel veel in.
301
00:12:09,739 --> 00:12:12,739
En dus...
302
00:12:12,739 --> 00:12:14,019
hele slappe tekst bijna...
303
00:12:14,019 --> 00:12:14,899
sprak ik eigenlijk in.
304
00:12:14,899 --> 00:12:16,819
En dan druk je alleen maar op de knop...
305
00:12:16,819 --> 00:12:17,899
of zeg je...
306
00:12:17,899 --> 00:12:18,899
verbeter me Nederlands.
307
00:12:18,899 --> 00:12:19,419
Oh ja.
308
00:12:19,419 --> 00:12:21,519
En dan is jouw tekst...
309
00:12:21,519 --> 00:12:23,399
in een verbeterde versie beschikbaar.
310
00:12:23,399 --> 00:12:24,099
Ja.
311
00:12:24,099 --> 00:12:25,279
Goeie toepassing.
312
00:12:25,279 --> 00:12:25,619
Ja.
313
00:12:25,619 --> 00:12:28,579
Ik wil dan nog even terugkomen op...
314
00:12:28,579 --> 00:12:29,759
dat er best wel...
315
00:12:29,759 --> 00:12:30,119
zeg maar...
316
00:12:30,119 --> 00:12:31,579
snel wordt gekeken...
317
00:12:31,579 --> 00:12:32,839
naar risico's...
318
00:12:32,839 --> 00:12:33,699
en wat er misgaat...
319
00:12:33,699 --> 00:12:34,299
en dat soort zaken.
320
00:12:34,999 --> 00:12:37,679
en ik heb een stukje...
321
00:12:37,679 --> 00:12:38,759
en dat is een zin...
322
00:12:38,759 --> 00:12:39,699
die komt uit een roman...
323
00:12:39,699 --> 00:12:42,339
maar ik vond hem eigenlijk zo grappig...
324
00:12:42,339 --> 00:12:43,939
die stelde...
325
00:12:43,939 --> 00:12:44,719
van...
326
00:12:44,719 --> 00:12:46,799
als we het hebben over...
327
00:12:46,799 --> 00:12:47,679
want...
328
00:12:47,679 --> 00:12:48,679
we zien...
329
00:12:48,679 --> 00:12:50,679
dat dan...
330
00:12:50,679 --> 00:12:50,679
AI...
331
00:12:50,679 --> 00:12:52,379
waar we bang voor zijn...
332
00:12:52,379 --> 00:12:53,459
moet het eigenlijk beter inleiden.
333
00:12:53,459 --> 00:12:54,699
Ik maak er een hele moeite zin van.
334
00:12:54,699 --> 00:12:54,979
Sorry.
335
00:12:54,979 --> 00:12:57,319
Wat we natuurlijk heel vaak hebben...
336
00:12:57,319 --> 00:12:58,419
is dat we denken van...
337
00:12:58,419 --> 00:12:59,679
de AI streeft ons voorbij...
338
00:13:00,139 --> 00:13:02,659
en dat geeft een gevoel van inferioriteit...
339
00:13:02,659 --> 00:13:05,199
dat wij eigenlijk daaraan ongeschikt zijn.
340
00:13:05,199 --> 00:13:07,279
En daar stond een hele mooie zin in dat boek...
341
00:13:07,279 --> 00:13:07,899
en daar stond...
342
00:13:07,899 --> 00:13:09,959
menselijke inferioriteit...
343
00:13:09,959 --> 00:13:12,399
maakt een supermenselijk object...
344
00:13:12,399 --> 00:13:14,239
niet direct kwaadaardig.
345
00:13:14,239 --> 00:13:15,719
Maar dat is wel iets...
346
00:13:15,719 --> 00:13:18,039
waar wij direct eigenlijk...
347
00:13:18,039 --> 00:13:19,559
in schieten als een soort van reflex.
348
00:13:19,559 --> 00:13:20,839
Ja.
349
00:13:20,839 --> 00:13:23,899
Je kent het hele term...
350
00:13:23,899 --> 00:13:24,659
antropofomisme.
351
00:13:24,659 --> 00:13:26,619
We denken echt dat...
352
00:13:26,619 --> 00:13:28,659
We zijn ook opgegroeid met films...
353
00:13:28,659 --> 00:13:30,599
waarin AI ons kapot maakt.
354
00:13:30,599 --> 00:13:32,659
Helaas weet de jeugd...
355
00:13:32,659 --> 00:13:33,819
Terminator niet zo goed meer.
356
00:13:33,819 --> 00:13:36,279
Ik kom vaak bij studenten...
357
00:13:36,279 --> 00:13:36,819
en dan zeg ik van...
358
00:13:36,819 --> 00:13:38,059
Hebben jullie de film Terminator gezien?
359
00:13:38,059 --> 00:13:39,779
Vijf procent.
360
00:13:39,779 --> 00:13:40,599
Die zijn hand opsteekt.
361
00:13:40,599 --> 00:13:41,859
Maar als ik zeg...
362
00:13:41,859 --> 00:13:42,499
Skynet...
363
00:13:42,499 --> 00:13:43,379
die neemt de macht over...
364
00:13:43,379 --> 00:13:43,899
en die vermoordt ons.
365
00:13:43,899 --> 00:13:45,179
Zo zijn we mee opgegroeid.
366
00:13:45,179 --> 00:13:46,659
Dus ik denk meteen...
367
00:13:46,659 --> 00:13:47,519
aan technologie...
368
00:13:47,519 --> 00:13:48,359
waarvan je denkt van...
369
00:13:48,359 --> 00:13:49,999
die is intelligent...
370
00:13:49,999 --> 00:13:50,939
tussen aanhalingstekens...
371
00:13:50,939 --> 00:13:51,519
of die is slim.
372
00:13:51,519 --> 00:13:53,439
Dus de hele term...
373
00:13:53,439 --> 00:13:54,239
artificial intelligence...
374
00:13:54,239 --> 00:13:55,299
moeten we eigenlijk ook veranderen.
375
00:13:55,299 --> 00:13:56,379
Ik denk niet dat het gaat lukken.
376
00:13:56,379 --> 00:13:57,739
Want het is niet intelligent.
377
00:13:57,739 --> 00:13:58,539
Het is niet dom.
378
00:13:58,539 --> 00:13:59,579
zoals ik het altijd zeg.
379
00:13:59,579 --> 00:14:01,899
Maar we maken ons dan erg...
380
00:14:01,899 --> 00:14:02,579
zorgen over...
381
00:14:02,579 --> 00:14:03,799
ja...
382
00:14:03,799 --> 00:14:04,899
robots...
383
00:14:04,899 --> 00:14:05,739
of machines...
384
00:14:05,739 --> 00:14:06,339
of tools...
385
00:14:06,339 --> 00:14:07,499
die veel slimmer zijn dan ons.
386
00:14:07,499 --> 00:14:09,639
Ik maak me...
387
00:14:09,639 --> 00:14:10,999
ik maak me zorgen...
388
00:14:10,999 --> 00:14:11,559
niet over AI.
389
00:14:11,559 --> 00:14:12,579
Ik maak me zorgen over de mensen...
390
00:14:12,579 --> 00:14:14,779
die misbruik maken van AI.
391
00:14:14,779 --> 00:14:15,899
Over de defensieindustrie.
392
00:14:15,899 --> 00:14:17,539
Over autonome drones.
393
00:14:17,539 --> 00:14:20,579
Over oorlogsgebieden...
394
00:14:21,199 --> 00:14:23,439
waarin bepaalde wijken...
395
00:14:23,439 --> 00:14:24,459
worden gescreend...
396
00:14:24,459 --> 00:14:27,939
en autonoom beslissingen worden genomen...
397
00:14:27,939 --> 00:14:29,539
om plat te gooien of niet.
398
00:14:29,539 --> 00:14:30,079
Weet je wel.
399
00:14:30,079 --> 00:14:31,999
Dus daar maak ik me zorgen over.
400
00:14:31,999 --> 00:14:33,399
Ja, ik vooral.
401
00:14:33,399 --> 00:14:34,099
Maar dan zitten we toch weer...
402
00:14:34,099 --> 00:14:34,739
in de zorgen kant.
403
00:14:34,739 --> 00:14:35,699
Maar daar wil ik daarna ook...
404
00:14:35,699 --> 00:14:36,439
nog even aan toevoegen.
405
00:14:36,439 --> 00:14:37,639
Want ik vind het wel een mooie tekst...
406
00:14:37,639 --> 00:14:38,239
inderdaad...
407
00:14:38,239 --> 00:14:39,299
die je opnoemt Joop.
408
00:14:39,299 --> 00:14:40,599
Eerst even een stukje.
409
00:14:40,599 --> 00:14:41,899
Ik vooral voor fake news.
410
00:14:41,899 --> 00:14:43,559
En nieuws dat gegenereerd wordt...
411
00:14:43,559 --> 00:14:44,239
alsof het echt is.
412
00:14:44,359 --> 00:14:46,359
En dat we dus verkeerde beelden gaan creëren...
413
00:14:46,359 --> 00:14:47,759
waardoor het perspectief...
414
00:14:47,759 --> 00:14:49,599
niet meer vanuit alle kanten komt...
415
00:14:49,599 --> 00:14:50,599
maar heel erg gefunneld wordt.
416
00:14:50,599 --> 00:14:51,859
Dat de bubbels nog groter worden.
417
00:14:51,859 --> 00:14:53,959
En dat is voor mij echt wel iets...
418
00:14:53,959 --> 00:14:54,439
waar we denk ik...
419
00:14:54,439 --> 00:14:55,579
in de toekomst veel mee te maken hebben.
420
00:14:55,579 --> 00:14:57,519
En ik wil hem ook nog even terughalen...
421
00:14:57,519 --> 00:14:58,819
want het is ook niet iets...
422
00:14:58,819 --> 00:14:59,859
wat alleen bij AI is.
423
00:14:59,859 --> 00:15:00,999
Je ziet ook vaak...
424
00:15:00,999 --> 00:15:02,619
als je zelf ervaring opdoet...
425
00:15:02,619 --> 00:15:05,559
en je gaat breder het werkgebied doen...
426
00:15:05,559 --> 00:15:07,319
dat de jeugd, de studenten...
427
00:15:07,319 --> 00:15:08,599
je gewoon voorbijstreven...
428
00:15:08,599 --> 00:15:09,979
en slimmer zijn op bepaalde vlakken.
429
00:15:09,979 --> 00:15:12,099
Zo kijk ik ook naar AI.
430
00:15:12,099 --> 00:15:13,379
Die zullen op sommige vlakken...
431
00:15:13,379 --> 00:15:14,219
gewoon vooruitstreven.
432
00:15:14,339 --> 00:15:14,859
Dat is mooi.
433
00:15:14,859 --> 00:15:16,019
Als je weet inderdaad...
434
00:15:16,019 --> 00:15:17,039
hoe zet ik dat goed in...
435
00:15:17,039 --> 00:15:18,319
en hoe kan ik dat kanaliseren...
436
00:15:18,319 --> 00:15:18,779
voor het goede.
437
00:15:18,779 --> 00:15:20,899
En dat is voor studenten...
438
00:15:20,899 --> 00:15:21,919
dat is voor je team bouwen...
439
00:15:21,919 --> 00:15:22,979
en dat geldt voor mij ook...
440
00:15:22,979 --> 00:15:24,099
voor hoe je zet je AI in.
441
00:15:24,099 --> 00:15:26,039
Zorg dat je weet waar het goed in is...
442
00:15:26,039 --> 00:15:28,159
en als dat op sommige stukken beter is...
443
00:15:28,159 --> 00:15:29,299
beter het goed te kanaliseren.
444
00:15:29,299 --> 00:15:33,379
Ja, maar het goede inzetten...
445
00:15:33,379 --> 00:15:35,359
of op de juiste manier inzetten...
446
00:15:35,359 --> 00:15:36,999
ik maak me daar ook zorgen over.
447
00:15:36,999 --> 00:15:38,719
Kijk, we hebben de strijd verloren...
448
00:15:38,719 --> 00:15:40,979
de strijd tussen aanhalingstekens...
449
00:15:40,979 --> 00:15:42,019
met de smartphone gebruik.
450
00:15:42,019 --> 00:15:44,319
We hebben de strijd verloren...
451
00:15:44,319 --> 00:15:44,599
media.
452
00:15:44,599 --> 00:15:46,939
Ik denk dat wij allemaal...
453
00:15:46,939 --> 00:15:48,639
meer dan vijf uur schermtijd hebben per dag...
454
00:15:48,639 --> 00:15:49,259
als het niet meer is.
455
00:15:49,259 --> 00:15:52,719
We hebben het nu pas over op scholen.
456
00:15:52,719 --> 00:15:54,099
Daar kun je ook van alles vinden.
457
00:15:54,099 --> 00:15:55,599
Van het verbieden van smartphones.
458
00:15:55,599 --> 00:15:59,099
Soms maak ik een grapje...
459
00:15:59,099 --> 00:15:59,799
maar dat is echt gebeurd.
460
00:15:59,799 --> 00:16:01,419
Ik kwam bij een middelbare school...
461
00:16:01,419 --> 00:16:02,039
in de pauze.
462
00:16:02,039 --> 00:16:04,019
En daar is de thuis of in de kluis.
463
00:16:04,699 --> 00:16:07,079
en gingen jongens weer lekker vechten met elkaar...
464
00:16:07,079 --> 00:16:07,599
in de pauze.
465
00:16:07,599 --> 00:16:08,379
Dat is vroeger.
466
00:16:08,379 --> 00:16:09,939
Uit verveling denk ik.
467
00:16:09,939 --> 00:16:11,279
Maar...
468
00:16:11,279 --> 00:16:12,699
en als we zo doorgaan...
469
00:16:12,699 --> 00:16:17,359
dan gaan we de strijd ook verliezen met AI.
470
00:16:18,119 --> 00:16:21,179
en dan heb ik het meer over AI geletterdheid.
471
00:16:21,179 --> 00:16:24,299
Daar kun je ook mediawijsheid...
472
00:16:24,299 --> 00:16:26,099
of digitale geletterdheid aan toevoegen.
473
00:16:26,099 --> 00:16:28,219
Ik vind dat echt...
474
00:16:28,219 --> 00:16:30,399
nog steeds enorm weinig aandacht.
475
00:16:30,399 --> 00:16:32,999
En niet alleen maar naar de overheid kijkend.
476
00:16:32,999 --> 00:16:36,319
Het moet een privaat publieke initiatief zijn.
477
00:16:36,719 --> 00:16:37,879
Er zijn wat initiatieven.
478
00:16:37,879 --> 00:16:40,399
Je wint de strijd niet...
479
00:16:40,399 --> 00:16:43,679
door één week aandacht te geven aan AI geletterdheid.
480
00:16:43,679 --> 00:16:44,919
Of een maand van AI.
481
00:16:44,919 --> 00:16:46,419
Zoals sommige gemeentes dat doen.
482
00:16:46,419 --> 00:16:47,359
Prachtig.
483
00:16:47,359 --> 00:16:49,039
En er wordt van alles georganiseerd.
484
00:16:49,039 --> 00:16:50,739
Maar er komen altijd dezelfde mensen.
485
00:16:50,739 --> 00:16:53,699
Dus mijn vader en moeder komen daar niet.
486
00:16:53,699 --> 00:16:54,799
Mijn ooms komen daar niet.
487
00:16:54,799 --> 00:16:55,919
Mijn neefjes komen daar niet.
488
00:16:55,919 --> 00:16:59,299
Die komen in de gym.
489
00:16:59,299 --> 00:17:01,239
Die gym.
490
00:17:01,239 --> 00:17:03,559
Die komen bij feesten.
491
00:17:03,559 --> 00:17:06,319
Die komen misschien nog in de bibliotheek.
492
00:17:06,319 --> 00:17:08,279
Dus je moet op plekken zijn.
493
00:17:08,279 --> 00:17:10,039
En hier iets over vertellen.
494
00:17:10,039 --> 00:17:11,719
Op de plekken waar zij zijn.
495
00:17:11,719 --> 00:17:14,679
Dat is echt een discussie die wij al heel lang voeren.
496
00:17:14,679 --> 00:17:16,279
Hoe bereiken we de mensen...
497
00:17:16,279 --> 00:17:18,279
die niet standaard naar dit onderwerp gaan zoeken.
498
00:17:18,279 --> 00:17:21,919
Dus hoe zorg je dat je AI voor iedereen kan bereiken.
499
00:17:21,919 --> 00:17:23,878
Ik heb daar een voorbeeld van.
500
00:17:23,878 --> 00:17:25,159
Ik ga de naam niet noemen.
501
00:17:25,159 --> 00:17:26,159
Maar een grote zoekmachine.
502
00:17:26,159 --> 00:17:29,379
Die heeft in Nederland en in België...
503
00:17:29,379 --> 00:17:33,179
een tijdje met bussen training gegeven.
504
00:17:33,179 --> 00:17:34,259
Ik was één van die trainers.
505
00:17:35,339 --> 00:17:36,579
Die stonden dan in het centrum.
506
00:17:36,579 --> 00:17:38,579
Van Veenendaal of van Rotterdam.
507
00:17:38,579 --> 00:17:39,999
Of van Sertgenbosch.
508
00:17:39,999 --> 00:17:43,059
En dan kon je een weekendje...
509
00:17:43,059 --> 00:17:44,239
of door de week...
510
00:17:44,239 --> 00:17:45,299
kon je een paar dagen lang...
511
00:17:45,299 --> 00:17:47,559
in de bus stappen.
512
00:17:47,559 --> 00:17:49,299
En dan kon je een training krijgen...
513
00:17:49,299 --> 00:17:50,259
over social automation.
514
00:17:50,259 --> 00:17:51,319
Over social media.
515
00:17:51,319 --> 00:17:53,359
Over je cv.
516
00:17:53,359 --> 00:17:55,699
Hoe mooi zou dat zijn...
517
00:17:55,699 --> 00:17:58,099
als we zoiets zouden uitvoeren.
518
00:17:58,579 --> 00:18:01,019
dat je in plaats van mensen uitnodigen...
519
00:18:01,019 --> 00:18:01,939
tot een soort religie.
520
00:18:01,939 --> 00:18:04,519
Dat zie je ook vaak soms in de steden.
521
00:18:04,519 --> 00:18:05,719
Dat is ook prima.
522
00:18:05,719 --> 00:18:08,379
Maar dat je dus ook mensen gewoon...
523
00:18:08,379 --> 00:18:09,739
dat mensen geïnteresseerd raken...
524
00:18:09,739 --> 00:18:10,679
van wat is dat voor een bus?
525
00:18:10,679 --> 00:18:12,039
Wat gebeurt daar?
526
00:18:12,039 --> 00:18:14,179
En dat ze dan binnenstappen.
527
00:18:14,179 --> 00:18:15,499
Interessante gedachten.
528
00:18:15,999 --> 00:18:17,139
Ik geloof er echt in.
529
00:18:17,139 --> 00:18:19,039
Dat dat de enige manier is.
530
00:18:19,039 --> 00:18:21,979
Dat je naar de scholen moet gaan.
531
00:18:21,979 --> 00:18:24,979
En dan niet de docenten zeggen van...
532
00:18:24,979 --> 00:18:26,859
jullie moeten ook nog mediawijsheid geven.
533
00:18:26,859 --> 00:18:27,739
Want die worden helemaal gek...
534
00:18:27,739 --> 00:18:28,499
van al het werk...
535
00:18:28,499 --> 00:18:30,679
van de opdrachten die we geven...
536
00:18:30,679 --> 00:18:31,379
als maatschappij.
537
00:18:31,379 --> 00:18:35,059
Maar dat er iets moet zijn...
538
00:18:35,059 --> 00:18:37,139
waardoor we...
539
00:18:37,139 --> 00:18:39,059
dat heb ik ooit een Deltaplan genoemd.
540
00:18:39,059 --> 00:18:40,839
Over die term heb je ook een discussie.
541
00:18:40,839 --> 00:18:44,139
Er moet een groot plan komen...
542
00:18:44,139 --> 00:18:45,979
waarin heel veel wordt samengewerkt...
543
00:18:45,979 --> 00:18:47,979
om ons AI geletterdheid...
544
00:18:47,979 --> 00:18:50,679
omhoog te halen of te verbeteren.
545
00:18:50,679 --> 00:18:54,979
Want rond die geletterdheid...
546
00:18:54,979 --> 00:18:57,999
hebben we natuurlijk ook over...
547
00:18:57,999 --> 00:18:58,979
digitale geletterdheid...
548
00:18:58,979 --> 00:19:00,979
en digitale weerbaarheid...
549
00:19:00,979 --> 00:19:03,319
en allemaal dat soort termen.
550
00:19:03,319 --> 00:19:05,779
Je hebt best wel een deel in je boek...
551
00:19:05,779 --> 00:19:07,539
ook besteed aan social media.
552
00:19:07,539 --> 00:19:09,979
Waarbij...
553
00:19:09,979 --> 00:19:12,979
vanuit de experts ook wordt aangegeven...
554
00:19:14,119 --> 00:19:16,219
ja, wij moeten onze kinderen leren...
555
00:19:16,219 --> 00:19:17,119
om daarmee om te gaan...
556
00:19:17,119 --> 00:19:19,999
en de risico's en dat soort dingen allemaal...
557
00:19:19,999 --> 00:19:21,359
dat je daarmee...
558
00:19:21,359 --> 00:19:22,879
uit de voeten kan.
559
00:19:22,879 --> 00:19:26,219
Wat mij eigenlijk bekroop...
560
00:19:26,219 --> 00:19:28,119
is dat het eigenlijk best wel heel raar is...
561
00:19:28,119 --> 00:19:29,119
dat wij...
562
00:19:29,119 --> 00:19:32,119
dat wij mensen moeten gaan opleiden...
563
00:19:32,119 --> 00:19:34,119
om weerstand te bieden...
564
00:19:34,119 --> 00:19:35,519
tegen...
565
00:19:35,519 --> 00:19:36,119
zeg maar...
566
00:19:36,119 --> 00:19:37,219
alles wat...
567
00:19:37,219 --> 00:19:38,119
vanuit die producten...
568
00:19:38,119 --> 00:19:40,039
ons wordt aangedaan.
569
00:19:41,119 --> 00:19:42,119
waarom...
570
00:19:42,119 --> 00:19:45,199
draaien we dat niet om...
571
00:19:45,199 --> 00:19:46,439
en zeggen we niet gewoon van...
572
00:19:46,439 --> 00:19:48,439
ja, maar we accepteren eigenlijk niet...
573
00:19:48,439 --> 00:19:50,119
dat je dit soort type producten aanbiedt.
574
00:19:50,119 --> 00:19:52,159
Je mag bijvoorbeeld ook geen...
575
00:19:52,159 --> 00:19:53,119
babyvoeding aanbieden...
576
00:19:53,119 --> 00:19:55,259
die gewoon heel slecht is voor baby's.
577
00:19:55,259 --> 00:19:57,119
Ik vind dat een hele mooie...
578
00:19:57,119 --> 00:19:58,979
omdenken.
579
00:19:58,979 --> 00:20:01,559
Je bent niet de enige die dat zegt.
580
00:20:01,559 --> 00:20:03,759
Europese Unie is daar best wel goed in...
581
00:20:03,759 --> 00:20:04,759
tot op een zekere hoogte.
582
00:20:04,759 --> 00:20:06,279
Met regulering.
583
00:20:06,279 --> 00:20:08,459
Maar ik zeg...
584
00:20:08,459 --> 00:20:10,239
op dit moment moet je kijken naar de realiteit.
585
00:20:10,679 --> 00:20:12,579
de realiteit is dat Big Tech...
586
00:20:12,579 --> 00:20:14,759
wat we ook proberen en te doen...
587
00:20:14,759 --> 00:20:15,499
nu de macht heeft.
588
00:20:15,499 --> 00:20:15,939
Ja.
589
00:20:15,939 --> 00:20:18,439
Daar ben ik niet happy over.
590
00:20:18,439 --> 00:20:20,739
Maar zelfs daar...
591
00:20:20,739 --> 00:20:21,179
Dat is juist.
592
00:20:21,179 --> 00:20:22,099
Want volgens mij...
593
00:20:22,099 --> 00:20:22,499
zeg maar...
594
00:20:22,499 --> 00:20:23,299
macht heb je niet.
595
00:20:23,299 --> 00:20:24,099
Macht krijg je.
596
00:20:24,099 --> 00:20:26,099
Dus wij geven die macht...
597
00:20:26,099 --> 00:20:28,179
aan Big Tech, toch?
598
00:20:28,179 --> 00:20:29,319
Of dat is eigenlijk iets heel raars?
599
00:20:29,319 --> 00:20:30,099
Ja, nee, dat is heel goed.
600
00:20:30,099 --> 00:20:32,059
Je ziet nu...
601
00:20:32,059 --> 00:20:33,779
dat er een kleine tendens is...
602
00:20:33,779 --> 00:20:35,199
dat was in het verleden ook wel een paar keer...
603
00:20:35,199 --> 00:20:37,379
dat mensen overstappen van WhatsApp...
604
00:20:37,379 --> 00:20:38,379
naar bijvoorbeeld Signal...
605
00:20:38,379 --> 00:20:39,239
of naar een ander kanaal.
606
00:20:40,239 --> 00:20:41,479
Is dat de oplossing dan?
607
00:20:41,479 --> 00:20:43,459
Dat wij dus naar...
608
00:20:43,459 --> 00:20:44,559
tools gaan...
609
00:20:44,559 --> 00:20:46,099
die niet bij de Big Tech horen...
610
00:20:46,099 --> 00:20:47,239
totdat ze overgenomen worden?
611
00:20:47,239 --> 00:20:49,159
Ik was fan van Mistro...
612
00:20:49,159 --> 00:20:51,159
totdat ik te horen kreeg...
613
00:20:51,159 --> 00:20:53,079
dat Microsoft flink heeft geïnvesteerd.
614
00:20:53,079 --> 00:20:55,179
Ik heb niks tegen Microsoft, hoor.
615
00:20:55,179 --> 00:20:56,679
Maar dat is wel weer Big Tech.
616
00:20:56,679 --> 00:20:59,239
En ik ben bang dat Signal ook...
617
00:20:59,239 --> 00:21:00,719
op een gegeven moment misschien...
618
00:21:00,719 --> 00:21:02,519
voor de grote geld...
619
00:21:02,519 --> 00:21:03,399
iets gaat doen.
620
00:21:03,399 --> 00:21:05,579
Dus ik geloof...
621
00:21:05,579 --> 00:21:07,159
het kan ook parallel.
622
00:21:07,159 --> 00:21:08,779
We moeten dus die Big Tech proberen...
623
00:21:08,779 --> 00:21:09,879
wat te laten aanpassen.
624
00:21:09,879 --> 00:21:11,479
Wat ik heel moeizaam vind.
625
00:21:11,479 --> 00:21:13,039
Ik geloof daar niet in...
626
00:21:13,039 --> 00:21:14,359
dat dat ons gaat lukken...
627
00:21:14,359 --> 00:21:15,519
als mensen.
628
00:21:15,519 --> 00:21:17,399
Of we moeten met z'n allen...
629
00:21:17,399 --> 00:21:18,679
tegelijk overstappen...
630
00:21:18,679 --> 00:21:20,859
of stoppen met al die tools.
631
00:21:20,859 --> 00:21:22,319
Dat gaat dus ook niet gebeuren.
632
00:21:22,319 --> 00:21:24,819
Kijk, misschien lukt het jou wel...
633
00:21:24,819 --> 00:21:25,739
misschien lukt het mij wel.
634
00:21:26,859 --> 00:21:29,299
Ik zie dat bij mijn drie zoons...
635
00:21:29,299 --> 00:21:30,279
ze zijn, als het goed is...
636
00:21:30,279 --> 00:21:31,159
mediawijs opgevoed.
637
00:21:31,159 --> 00:21:33,319
Maar mijn oudste zoon van 15...
638
00:21:33,319 --> 00:21:35,119
die weet wat brainrot is.
639
00:21:35,119 --> 00:21:37,739
Die weet dat hij aan het doomscrollen is.
640
00:21:37,739 --> 00:21:39,219
Die doet het.
641
00:21:39,219 --> 00:21:43,819
Het zit erin of zo, denk ik dan.
642
00:21:43,819 --> 00:21:45,119
We krijgen het er niet meer uit.
643
00:21:45,119 --> 00:21:48,699
Er zijn maar heel weinig mensen...
644
00:21:48,699 --> 00:21:49,559
die geen smartphone hebben.
645
00:21:49,559 --> 00:21:50,799
Of die geen Instagram hebben.
646
00:21:50,799 --> 00:21:52,459
Of die geen Snapchat hebben.
647
00:21:52,459 --> 00:21:55,119
Het lijkt een beetje aan.
648
00:21:56,459 --> 00:21:57,379
niet hoopvol.
649
00:21:57,379 --> 00:21:58,519
Hoe het klinkt.
650
00:21:58,519 --> 00:21:59,599
Dus daarom vind ik belangrijk...
651
00:21:59,599 --> 00:22:00,619
dat we ze wel moeten opvoeden.
652
00:22:00,619 --> 00:22:02,319
Ik heb wel het gesprek met die jongens.
653
00:22:02,319 --> 00:22:03,759
Ik zei...
654
00:22:03,759 --> 00:22:06,059
je bent weer een half uur bezig.
655
00:22:06,059 --> 00:22:07,619
Zullen we hierover spreken?
656
00:22:07,619 --> 00:22:08,259
Wat heb je gezien?
657
00:22:08,259 --> 00:22:09,459
Waar kijk je naar?
658
00:22:09,459 --> 00:22:11,199
Eén voorbeeld.
659
00:22:11,199 --> 00:22:12,619
Ik zeg niet dat dat de juiste voorbeeld is.
660
00:22:12,619 --> 00:22:14,359
Maar de Playstation van die jongens...
661
00:22:14,359 --> 00:22:15,499
die zit bij ons in de woonkamer.
662
00:22:15,499 --> 00:22:17,999
Ik weet dus precies hoe laat...
663
00:22:17,999 --> 00:22:18,879
hoe vaak...
664
00:22:18,879 --> 00:22:19,639
en wat ze spelen.
665
00:22:19,639 --> 00:22:21,859
Dat betekent wel dat ik met mijn vrouw...
666
00:22:21,859 --> 00:22:22,659
bijna niks meer kan kijken.
667
00:22:22,659 --> 00:22:25,239
Want die oudste slaapt steeds later.
668
00:22:26,059 --> 00:22:28,199
Dus de privédomein...
669
00:22:28,199 --> 00:22:29,199
bij ons...
670
00:22:29,199 --> 00:22:30,839
MeTime, et cetera...
671
00:22:30,839 --> 00:22:31,439
is minder geworden.
672
00:22:31,439 --> 00:22:32,479
Maar ik zie dan wel...
673
00:22:32,479 --> 00:22:34,059
Kijk, en ik weet dat ze Fortnite spelen.
674
00:22:34,059 --> 00:22:35,759
En ik zie dat de oudste speelt...
675
00:22:35,759 --> 00:22:36,819
ook Call of Duty en zo.
676
00:22:36,819 --> 00:22:38,119
Maar dan hebben we het erover.
677
00:22:38,119 --> 00:22:38,539
Ja.
678
00:22:38,539 --> 00:22:41,139
En ik denk dat dat de enige manier is.
679
00:22:41,139 --> 00:22:42,839
Door te kijken van...
680
00:22:42,839 --> 00:22:44,519
als ouders...
681
00:22:44,519 --> 00:22:45,939
Want wij zijn net zo verslaafd, hè?
682
00:22:45,939 --> 00:22:47,019
Ik wou net zeggen.
683
00:22:47,019 --> 00:22:48,199
Wij zijn net zo...
684
00:22:48,199 --> 00:22:49,659
Soms zit ik reels te sturen...
685
00:22:49,659 --> 00:22:51,439
via Instagram naar mijn vrouw...
686
00:22:51,439 --> 00:22:52,559
en dan krijg ik het van haar terug.
687
00:22:52,559 --> 00:22:53,179
Weet je wel?
688
00:22:53,179 --> 00:22:54,139
Terwijl je naast elkaar zit.
689
00:22:54,139 --> 00:22:55,139
Terwijl je naast elkaar zit.
690
00:22:55,299 --> 00:22:55,599
Ja.
691
00:22:57,719 --> 00:22:59,039
Maar ik denk dat het wel belangrijk is...
692
00:22:59,039 --> 00:23:00,079
met elkaar het gesprek aan gaan.
693
00:23:00,079 --> 00:23:01,419
Dat is zoals je met de kinderen zegt.
694
00:23:01,419 --> 00:23:02,299
Ik doe dat ook inderdaad.
695
00:23:02,299 --> 00:23:03,339
Ik zie ook waar ze op zitten.
696
00:23:03,339 --> 00:23:04,319
En dan hebben we ook nog een app...
697
00:23:04,319 --> 00:23:05,399
die een rapportje terugstuurt...
698
00:23:05,399 --> 00:23:06,279
van hé, zoveel uur...
699
00:23:06,279 --> 00:23:07,039
en dat soort zaken.
700
00:23:07,039 --> 00:23:08,699
Maar om met elkaar het gesprek aan te gaan...
701
00:23:08,699 --> 00:23:09,659
van goh...
702
00:23:09,659 --> 00:23:10,219
waarom?
703
00:23:10,219 --> 00:23:10,939
En wat doe je dan?
704
00:23:10,939 --> 00:23:12,399
En met wie doe je dat dan?
705
00:23:12,399 --> 00:23:13,239
En dat soort zaken.
706
00:23:13,239 --> 00:23:15,239
Maar ik denk dat dat ook in de maatschappij...
707
00:23:15,239 --> 00:23:16,639
met elkaar het gesprek over aan moet gaan.
708
00:23:17,279 --> 00:23:17,459
Ja.
709
00:23:17,459 --> 00:23:19,319
En dan met iedereen.
710
00:23:19,319 --> 00:23:19,559
Ja.
711
00:23:19,559 --> 00:23:20,979
En niet de kennis...
712
00:23:20,979 --> 00:23:23,539
en niet de mensen die snel bereikbaar zijn...
713
00:23:23,539 --> 00:23:24,339
die online zijn.
714
00:23:24,339 --> 00:23:25,999
Je hebt ook namelijk mensen die heel veel...
715
00:23:25,999 --> 00:23:26,799
die niet online zijn.
716
00:23:26,799 --> 00:23:29,239
Hoe ga je met de digibeten?
717
00:23:29,739 --> 00:23:32,839
Ik kom in zalen waarin mensen niet eens weten...
718
00:23:32,839 --> 00:23:34,199
met respect voor die mensen...
719
00:23:34,199 --> 00:23:36,239
maar die niet eens weten hoe ze een QR-code moeten scannen.
720
00:23:36,239 --> 00:23:38,419
Dan heb ik het over docenten bijvoorbeeld.
721
00:23:38,419 --> 00:23:41,259
Of die de Chrome...
722
00:23:41,259 --> 00:23:43,439
Google Chrome plugins niet snappen.
723
00:23:43,439 --> 00:23:45,399
Of die Teams niet eens weten.
724
00:23:45,399 --> 00:23:46,499
Maak eens of Teams gebruiken ze.
725
00:23:46,499 --> 00:23:47,319
En SharePoint.
726
00:23:47,319 --> 00:23:48,219
Dat vinden ze allemaal heel lastig.
727
00:23:48,219 --> 00:23:49,739
En dan kom ik dan bijvoorbeeld zeggen van...
728
00:23:49,739 --> 00:23:50,779
jullie moeten nu aan de slag met AI.
729
00:23:50,779 --> 00:23:51,439
Ja, precies.
730
00:23:51,439 --> 00:23:52,619
Ja.
731
00:23:52,619 --> 00:23:54,299
Soms worden ze ook boos.
732
00:23:54,299 --> 00:23:56,199
Ja, niet op mij, maar op het hele gebeuren.
733
00:23:56,199 --> 00:23:56,599
Ja.
734
00:23:56,599 --> 00:23:59,299
Mensen gaan echt met hun armen over elkaar heen...
735
00:23:59,299 --> 00:24:00,339
naar je luisteren.
736
00:24:00,339 --> 00:24:02,119
En dan ontstaan er discussies.
737
00:24:02,119 --> 00:24:05,519
En dat zijn heel vaak filosofische discussies.
738
00:24:05,519 --> 00:24:07,819
Zou je een voorbeeld kunnen noemen?
739
00:24:07,819 --> 00:24:10,859
Nou ja, dat ze dan bijvoorbeeld de discussie aangaan van...
740
00:24:10,859 --> 00:24:12,679
wat moeten die kinderen nog kunnen?
741
00:24:12,679 --> 00:24:14,819
Wat leren we ze nog?
742
00:24:14,819 --> 00:24:16,119
Basiskennis.
743
00:24:16,119 --> 00:24:17,619
Ik ben niet tegen basiskennis.
744
00:24:17,619 --> 00:24:20,299
Maar die denken dus dan als ik zeg...
745
00:24:20,299 --> 00:24:21,439
je moet aan de slag met AI.
746
00:24:21,439 --> 00:24:24,259
Oh, dan moeten we alles stoppen met hoe we het altijd deden.
747
00:24:24,259 --> 00:24:26,739
Maar ook vragen als wat is creativiteit?
748
00:24:26,739 --> 00:24:29,039
Wat is intelligentie?
749
00:24:29,039 --> 00:24:30,619
Wat is authenticiteit?
750
00:24:30,619 --> 00:24:33,619
Een hele grote vraagstuk in de wetenschappelijke wereld.
751
00:24:33,619 --> 00:24:35,219
Heb jij dit geschreven?
752
00:24:35,219 --> 00:24:36,259
Of heeft AI het geschreven?
753
00:24:36,259 --> 00:24:38,379
Hoeveel heeft AI het geschreven?
754
00:24:38,379 --> 00:24:43,399
Mijn collega Rens van der Vorst heeft een gimmick gemaakt met zweetdruppels.
755
00:24:43,399 --> 00:24:44,419
Het zijn stickers.
756
00:24:44,419 --> 00:24:44,999
Vier stickers.
757
00:24:44,999 --> 00:24:47,519
Ik weet niet of mensen dat eerlijk gaan gebruiken.
758
00:24:47,519 --> 00:24:51,499
Maar als het één zweetdruppel is, dan heb je het alleen maar gebruikt om iets op te zoeken.
759
00:24:51,499 --> 00:24:54,579
Twee zweetdruppels heb je gebruikt om je spellings te checken.
760
00:24:54,879 --> 00:24:59,239
Drie zweetdruppels is dat de helft van je taken is gedaan door AI.
761
00:24:59,459 --> 00:25:01,939
Met alle zweetdruppels is het dus.
762
00:25:01,939 --> 00:25:05,679
Je hebt volledig vertrouwd aan AI.
763
00:25:05,679 --> 00:25:08,239
En dan moeten studenten dat eigenlijk gaan plakken.
764
00:25:08,239 --> 00:25:10,079
Oh, om hun eigen werk.
765
00:25:10,079 --> 00:25:10,379
Ja.
766
00:25:10,379 --> 00:25:11,359
Oh, wat goed.
767
00:25:11,359 --> 00:25:12,619
Om het gesprek weer aan te gaan.
768
00:25:12,619 --> 00:25:12,819
Ja.
769
00:25:13,699 --> 00:25:16,499
Oh, maar dit kan je ook binnen je organisatie doen.
770
00:25:16,499 --> 00:25:18,079
Al is het maar.
771
00:25:18,079 --> 00:25:19,119
Een bewustwording.
772
00:25:19,119 --> 00:25:21,739
Ja, maar ook wat ik meteen voor me zie.
773
00:25:21,739 --> 00:25:29,519
Wij hebben het heel vaak over als je AI wil inzetten, maar je weet eigenlijk nog niet precies helemaal waar in je werk.
774
00:25:29,519 --> 00:25:31,899
Dat je je werk in taken verdeelt.
775
00:25:31,899 --> 00:25:34,859
En daar zou je dit eigenlijk ook voor kunnen gebruiken.
776
00:25:34,859 --> 00:25:37,159
Je zegt van, oh, maar hier wil ik eigenlijk maar één traantje.
777
00:25:37,159 --> 00:25:38,019
Hier wil ik de vier.
778
00:25:38,019 --> 00:25:39,299
Oh, wat leuk.
779
00:25:39,299 --> 00:25:40,239
Ja, het is echt heel leuk.
780
00:25:40,239 --> 00:25:40,599
Ja.
781
00:25:40,599 --> 00:25:42,759
We moeten ook af van het AI-schaamte.
782
00:25:43,179 --> 00:25:43,319
Ja.
783
00:25:43,319 --> 00:25:50,259
We moeten echt af dat mensen de vraag gaan stellen aan de ander van, heb jij dit gemaakt?
784
00:25:50,259 --> 00:25:50,659
Ja.
785
00:25:50,659 --> 00:25:52,939
Ik denk dat dat wordt heel moeilijk.
786
00:25:52,939 --> 00:25:54,759
Dat gaat gebeuren.
787
00:25:54,759 --> 00:25:56,299
Ik fotografeer heel graag.
788
00:25:56,299 --> 00:25:57,999
Dus dan laat ik foto's zien.
789
00:25:57,999 --> 00:26:00,759
En het eerste wat ik krijg is, hoeveel photoshop is dit?
790
00:26:00,759 --> 00:26:05,079
Wie stelt die vraag dan?
791
00:26:05,079 --> 00:26:07,099
De omgeving?
792
00:26:07,099 --> 00:26:08,579
Ja, nee.
793
00:26:08,579 --> 00:26:12,919
Het is eigenlijk juist omdat mensen er bewust van zijn.
794
00:26:12,919 --> 00:26:15,179
dat foto's bewerkt kunnen worden.
795
00:26:15,179 --> 00:26:20,079
Is het wel de vraag van, ja, hoeveel heb je dat dan gedaan?
796
00:26:20,079 --> 00:26:23,379
Maar dat zijn niet de fotografen of ook de liefhebbers van fotografie?
797
00:26:23,379 --> 00:26:23,799
Nee.
798
00:26:23,799 --> 00:26:25,539
Oh, dat zou ik juist verwachten eigenlijk.
799
00:26:25,539 --> 00:26:26,459
Nee, de omgeving.
800
00:26:26,459 --> 00:26:28,119
Ik zou zeggen, is het een mooie foto, ja of nee?
801
00:26:28,119 --> 00:26:30,159
Vind ik het een mooie foto, ja of nee?
802
00:26:30,159 --> 00:26:32,719
Ik denk dat één op de drie vraagt dit.
803
00:26:32,999 --> 00:26:33,279
Oké.
804
00:26:33,279 --> 00:26:34,479
Maar wat willen ze dan?
805
00:26:34,479 --> 00:26:40,119
Willen ze dan dat je net zoals Kodaks, dat je een foto maakt en dat je het meteen eruit ziet krijgen?
806
00:26:40,119 --> 00:26:43,259
Is dat fotografie dan in hun ogen?
807
00:26:43,259 --> 00:26:45,579
Nou ja, dat soort discussies leverden dan.
808
00:26:46,419 --> 00:26:52,219
Ja, ik antwoord dan van, zeg van, ja, maar ik kan zeg maar de instelling nemen die een Japanse engineer,
809
00:26:52,219 --> 00:26:58,179
want het zijn vaak Japanse camera's, die een Japanse engineer vooraf heeft bedacht, die zou kunnen gebruiken.
810
00:26:59,219 --> 00:27:02,679
Ik bedoel, is dat dan echter of dat ik mijn instellingen gebruik?
811
00:27:02,679 --> 00:27:06,639
Maar die ik dan met de computer nog...
812
00:27:06,639 --> 00:27:07,519
Naar werk, ja.
813
00:27:07,519 --> 00:27:09,499
Of na-instel eigenlijk.
814
00:27:09,499 --> 00:27:12,639
En toch zijn dat dan hele moeilijke...
815
00:27:12,639 --> 00:27:19,999
Ja, is blijkbaar als je gewoon iets drukt en dat dat het is, dat is dan echter.
816
00:27:19,999 --> 00:27:23,879
En datzelfde geldt denk ik zo direct met schrijven met AI of zo.
817
00:27:23,879 --> 00:27:29,579
Als jij het helemaal zelf geschreven hebt, dat het daarmee zogenaamd echter zou zijn.
818
00:27:29,579 --> 00:27:33,399
Ja, acceptatie komt ineens bij me op.
819
00:27:33,399 --> 00:27:41,879
Als ik zie, onze hele relatie met technologie, dat is nog niet klaar.
820
00:27:41,879 --> 00:27:45,579
We moeten nog steeds leren met z'n allen ermee om te gaan.
821
00:27:45,579 --> 00:27:49,559
En dit begint bij Photoshop en het is nu aan de gang met AI.
822
00:27:51,359 --> 00:27:57,019
Accepteren we dat het er is en dat het iets kan, wat we misschien zelf niet kunnen als mens of niet goed kunnen.
823
00:27:57,019 --> 00:27:58,939
Kijk, je hebt ook studenten die te slecht zijn.
824
00:27:58,939 --> 00:28:00,739
Die niet kunnen schrijven.
825
00:28:00,739 --> 00:28:02,619
Die heel veel moeite hebben met schrijven.
826
00:28:02,619 --> 00:28:04,919
Die hebben nu een fantastische digitale assistent.
827
00:28:04,919 --> 00:28:08,939
Wij werden in het verleden boos op studenten als ze de spellingschecker van Word niet hadden gebruikt.
828
00:28:08,939 --> 00:28:10,779
Dan zeiden ze van, waarom heb je dat in godsnaam niet gebruikt?
829
00:28:10,779 --> 00:28:15,219
We mogen nu niet boos worden als ze AI hebben gebruikt.
830
00:28:15,219 --> 00:28:18,179
Kijk, is dat beleid van jullie?
831
00:28:18,179 --> 00:28:20,679
Bij ons is het zo, je mag gebruik maken.
832
00:28:20,679 --> 00:28:25,439
We hebben wel een soort one page waarin staat, je mag gebruik maken.
833
00:28:25,439 --> 00:28:27,219
Let op waarbij is.
834
00:28:27,219 --> 00:28:30,139
Let op dat je je bron moet vermelden.
835
00:28:30,139 --> 00:28:36,299
En je mag geen vertrouwelijke documenten of persoonsgegevens of auteusrechtelijke documenten invoeren.
836
00:28:36,299 --> 00:28:37,819
Eigenlijk zijn dat de regels.
837
00:28:37,819 --> 00:28:38,839
En de traantjes dan?
838
00:28:39,299 --> 00:28:41,239
Ja, die traantjes zijn dan opkomers.
839
00:28:41,239 --> 00:28:44,279
Die zouden heel fijn zijn om het gesprek aan te gaan.
840
00:28:44,279 --> 00:28:47,639
Kijk, soms zien we studenten die hun hele literatuuronderzoek hebben gemaakt.
841
00:28:47,639 --> 00:28:48,879
Dan heb ik het over Engels.
842
00:28:48,879 --> 00:28:50,279
En dan leveren ze het in.
843
00:28:50,279 --> 00:28:51,539
Wij kijken dan na samen.
844
00:28:51,539 --> 00:28:56,419
Dus wij hebben tijd gekregen van onze opdrachtgever, werkgever moet ik zeggen, om naast de studenten te zitten.
845
00:28:56,419 --> 00:28:58,899
Dan kijken we het samen na.
846
00:28:58,899 --> 00:29:01,179
En dan lees ik woorden als enigma.
847
00:29:01,739 --> 00:29:03,099
Of Endeavor.
848
00:29:03,099 --> 00:29:05,999
En dan vraag ik aan die student, wat is dit?
849
00:29:05,999 --> 00:29:06,919
Die weet het ook niet.
850
00:29:06,919 --> 00:29:09,059
Ja, dat wordt wel een probleem.
851
00:29:09,059 --> 00:29:13,359
Nee, maar dan weet ik van, oké, je hebt dus AI gebruikt, welke tools.
852
00:29:13,359 --> 00:29:16,179
Maar jij snapt ook niet wat er staat.
853
00:29:16,179 --> 00:29:19,279
En dan geef ik de opdracht om het wat simpeler te schrijven.
854
00:29:19,279 --> 00:29:21,199
En dan dus ook AI gebruiken.
855
00:29:21,199 --> 00:29:25,719
Make it simpler, maar je moet het gesprek aan.
856
00:29:25,719 --> 00:29:29,179
En dan, wij worden al vanaf het begin niet boos.
857
00:29:29,179 --> 00:29:30,199
Daar ben ik heel blij mee.
858
00:29:30,579 --> 00:29:32,059
Dat is wel een heel mooi uitgangspunt.
859
00:29:32,059 --> 00:29:33,919
Nee, want het is er nu eenmaal.
860
00:29:33,919 --> 00:29:35,559
We gaan het niet pauzeren, we gaan het niet stoppen.
861
00:29:35,559 --> 00:29:39,879
Er zijn nog steeds mensen die proberen, kunnen we het echt niet verbieden?
862
00:29:39,879 --> 00:29:40,879
Weet je wel?
863
00:29:40,879 --> 00:29:44,999
Maar dat is het net als het vechten tegen de rekenmachine.
864
00:29:44,999 --> 00:29:47,859
We hebben nu gewoon een taalmachine.
865
00:29:47,859 --> 00:29:49,259
Precies.
866
00:29:49,259 --> 00:29:54,019
Als je het zo brengt, dan hopelijk snappen de meeste mensen het wel.
867
00:29:54,019 --> 00:29:57,399
En ik weet dat die vergelijking met de rekenmachine ook soms ter discussie staat.
868
00:29:57,399 --> 00:30:01,619
Omdat de antwoorden van de rekenmachine altijd hetzelfde is over de hele wereld.
869
00:30:01,619 --> 00:30:03,999
En de antwoorden van AI of large language models niet zo is.
870
00:30:03,999 --> 00:30:08,259
Maar mensen snappen het wel als je dat zegt.
871
00:30:08,259 --> 00:30:12,719
Je had het erover van vooral bespreken met elkaar.
872
00:30:12,719 --> 00:30:14,499
Daar hebben wij wat voor.
873
00:30:14,499 --> 00:30:18,059
We hebben een kaartspel met stellingen over generatieve AI.
874
00:30:18,059 --> 00:30:18,659
Spannend.
875
00:30:18,759 --> 00:30:20,659
Dus die willen we er ook eentje aan jou voorleggen.
876
00:30:20,659 --> 00:30:26,599
Er wordt hier echt geschud, zie ik.
877
00:30:26,599 --> 00:30:37,539
Heb je er weer eentje uitgezocht die past?
878
00:30:37,539 --> 00:30:38,979
Ja, echt geschud en hij past.
879
00:30:38,979 --> 00:30:40,919
We zouden het met name positief hebben.
880
00:30:40,919 --> 00:30:42,519
We hebben met name doomscenario's.
881
00:30:42,519 --> 00:30:46,059
En de categorie is risico's en uitdagingen.
882
00:30:46,059 --> 00:30:46,399
Oh ja.
883
00:30:46,399 --> 00:30:50,119
Dus daarmee zie je dat het echt de random is die we eruit halen.
884
00:30:50,119 --> 00:30:51,939
Dus de categorie risico's en uitdagingen.
885
00:30:51,939 --> 00:30:53,219
En de stelling luidt als volgt.
886
00:30:53,219 --> 00:30:56,519
Generatieve AI systemen zijn vatbaar voor hacks.
887
00:30:56,519 --> 00:31:01,359
En kunnen grote veiligheidsrisico's vormen als ze niet goed worden beveiligd.
888
00:31:02,659 --> 00:31:04,099
Kijk, je kunt niks beveiligen.
889
00:31:04,099 --> 00:31:06,079
Alles is hackbaar.
890
00:31:06,079 --> 00:31:08,839
Hackers gebruiken ook AI.
891
00:31:08,839 --> 00:31:10,479
Ook security.
892
00:31:10,479 --> 00:31:13,179
Mensen die met cybersecurity bezig zijn.
893
00:31:13,179 --> 00:31:15,779
Die vinden het fantastisch dat AI er nu is.
894
00:31:15,779 --> 00:31:17,179
Ook die helpt hun.
895
00:31:17,179 --> 00:31:20,399
Je moet proberen te beveiligen.
896
00:31:20,399 --> 00:31:22,099
Maar ik denk dat het een strijd is nogmaals.
897
00:31:22,099 --> 00:31:25,479
Net zoals de dieven, de boeven en de politie.
898
00:31:25,479 --> 00:31:27,199
De boeven komen met iets.
899
00:31:27,199 --> 00:31:28,279
De politie weet weer iets.
900
00:31:28,279 --> 00:31:32,399
En ik denk dat we zo'n soort ontwikkeling gaan zien.
901
00:31:32,399 --> 00:31:35,379
Dan kun je ook trekken naar deepfakes.
902
00:31:35,379 --> 00:31:38,399
Ik zie dat er ook initiatieven zijn om met watermerken.
903
00:31:38,399 --> 00:31:40,759
Of een bepaald systeem.
904
00:31:40,759 --> 00:31:45,399
Waarin iedere keer wordt gescand.
905
00:31:45,399 --> 00:31:48,619
Is het gemaakt door AI of niet.
906
00:31:48,619 --> 00:31:50,899
Maar op een gegeven moment wordt het steeds beter.
907
00:31:50,899 --> 00:31:51,819
Het wordt steeds beter.
908
00:31:51,819 --> 00:31:57,699
En ik denk dat die ontwikkelingen zichzelf blijven doorzetten.
909
00:31:57,699 --> 00:32:01,979
Nog even terug naar je boek.
910
00:32:01,979 --> 00:32:04,459
Bij het schrijven en bij het interviewen.
911
00:32:04,459 --> 00:32:07,499
Want je hebt meer dan 60 experts ook geïnterviewd.
912
00:32:07,499 --> 00:32:10,659
Wat was voor jou nou iets nieuws.
913
00:32:10,659 --> 00:32:11,759
Of waarvan je zei.
914
00:32:11,759 --> 00:32:13,459
Dat is eigenlijk een eye-opener voor mij.
915
00:32:13,459 --> 00:32:15,799
Klinkt een beetje cliché.
916
00:32:15,799 --> 00:32:18,479
Maar bijna alle experts zeiden.
917
00:32:18,479 --> 00:32:20,319
Het is niet AI.
918
00:32:20,319 --> 00:32:22,559
Die goed is of slecht is.
919
00:32:22,559 --> 00:32:24,019
Het is human for good.
920
00:32:24,019 --> 00:32:26,959
Wij mensen hebben vooroordelen.
921
00:32:27,419 --> 00:32:27,919
Zoals we nu.
922
00:32:27,919 --> 00:32:28,799
Zoals we hier zitten.
923
00:32:28,799 --> 00:32:30,479
Heb ik misschien ideeën over jouw kleding.
924
00:32:30,479 --> 00:32:31,619
Over mijn haar.
925
00:32:31,619 --> 00:32:32,339
Over jouw bril.
926
00:32:32,339 --> 00:32:34,619
En zolang we dat zullen hebben.
927
00:32:34,619 --> 00:32:37,039
Zal AI ook bevooroordeeld zijn.
928
00:32:37,039 --> 00:32:39,779
Dus ze zeiden echt.
929
00:32:39,779 --> 00:32:41,059
Het is niet AI for good.
930
00:32:41,059 --> 00:32:42,839
Het is human for good.
931
00:32:44,279 --> 00:32:46,999
Dat wil ik bijna de titel van maken.
932
00:32:46,999 --> 00:32:48,359
Maar de uitgeverij vond deze.
933
00:32:48,359 --> 00:32:50,059
Toch iets beter.
934
00:32:50,059 --> 00:32:50,959
Ik had een paar voorstellen.
935
00:32:50,959 --> 00:32:54,119
Dus wij moeten eigenlijk.
936
00:32:54,119 --> 00:32:55,279
Wij moeten niks.
937
00:32:55,279 --> 00:32:57,179
Maar het zou zo mooi zijn.
938
00:32:57,179 --> 00:32:58,159
Als wij als mensen.
939
00:32:58,159 --> 00:32:59,039
Onze processen.
940
00:32:59,039 --> 00:33:01,679
Onze verstandhouding.
941
00:33:01,679 --> 00:33:03,039
Onze dialogen.
942
00:33:03,039 --> 00:33:04,359
Verbeteren naar elkaar.
943
00:33:04,359 --> 00:33:05,699
En ik hoop.
944
00:33:05,699 --> 00:33:07,559
Als dat ontwikkeld wordt.
945
00:33:07,559 --> 00:33:08,759
En als dat verbeterd wordt.
946
00:33:08,759 --> 00:33:10,539
Zal AI dat ook inzien.
947
00:33:11,279 --> 00:33:12,499
De vraag die bij mij dan opkomt.
948
00:33:12,499 --> 00:33:14,099
Dus hoe zou AI erbij kunnen helpen.
949
00:33:14,099 --> 00:33:14,879
Om dat te creëren.
950
00:33:14,879 --> 00:33:16,579
Je ziet ook bijvoorbeeld.
951
00:33:16,579 --> 00:33:18,059
Een voorbeeld die wordt aangehaald.
952
00:33:18,059 --> 00:33:18,939
Is in Taiwan.
953
00:33:18,939 --> 00:33:21,259
Die heeft ooit AI ingezet.
954
00:33:21,259 --> 00:33:22,899
Om mensen die.
955
00:33:22,899 --> 00:33:25,379
Aan het polariseren waren.
956
00:33:25,379 --> 00:33:27,799
Na elkaar toe te brengen.
957
00:33:27,799 --> 00:33:30,079
Door die bubbel.
958
00:33:30,079 --> 00:33:30,819
Eigenlijk een beetje.
959
00:33:30,819 --> 00:33:32,019
Open te breken.
960
00:33:32,019 --> 00:33:33,359
Daarvoor gebruikt dus AI.
961
00:33:33,359 --> 00:33:34,859
Zodat je niet altijd.
962
00:33:34,859 --> 00:33:37,639
Nieuws vanuit X kreeg.
963
00:33:37,639 --> 00:33:39,079
Maar ook nieuws van iets anders kreeg.
964
00:33:39,079 --> 00:33:40,519
Dus het wordt.
965
00:33:41,079 --> 00:33:42,279
AI kun je ook voor.
966
00:33:42,279 --> 00:33:43,559
Net zoals met alles.
967
00:33:43,559 --> 00:33:44,119
Een hamer.
968
00:33:44,119 --> 00:33:45,499
Of een auto.
969
00:33:45,499 --> 00:33:47,059
Kun je gebruiken voor goede dingen.
970
00:33:47,059 --> 00:33:48,899
Voor hele slechte dingen.
971
00:33:48,899 --> 00:33:52,639
Jazeker.
972
00:33:52,639 --> 00:33:54,839
Ik was wel nieuwsgierig.
973
00:33:54,839 --> 00:33:56,079
Even los van je boek.
974
00:33:56,079 --> 00:33:57,119
Want zoals we zeiden.
975
00:33:57,119 --> 00:33:58,199
Ik ben niet zozeer in lezen.
976
00:33:58,199 --> 00:33:59,459
Dus bij mij liggen je nog op de stapel.
977
00:33:59,459 --> 00:33:59,979
Om te lezen.
978
00:33:59,979 --> 00:34:01,459
Zoals heel veel andere boeken.
979
00:34:01,459 --> 00:34:02,879
Ik ben meer de luisteraar.
980
00:34:02,879 --> 00:34:03,679
Maar ik heb wel een tip gekregen.
981
00:34:03,679 --> 00:34:04,319
Om te gaan luisteren.
982
00:34:04,319 --> 00:34:05,099
Dus dat gaan we eens proberen.
983
00:34:05,099 --> 00:34:06,379
Ik was even benieuwd naar.
984
00:34:06,379 --> 00:34:08,039
Je zit heel veel in het onderwijs.
985
00:34:08,039 --> 00:34:09,199
Je spreekt heel veel collega's.
986
00:34:09,199 --> 00:34:10,239
Ook in je eigen podcast.
987
00:34:10,879 --> 00:34:13,938
Als we vooruit kijken naar de ontwikkeling en AI.
988
00:34:13,938 --> 00:34:16,879
Hoe zou die een goede bijdrage kunnen leveren in het onderwijsdomein?
989
00:34:16,879 --> 00:34:20,518
Ten eerste moeten we kijken hoe we het nu doen.
990
00:34:20,518 --> 00:34:24,619
Ik laat dan altijd zo'n slide zien waar een prudelbak zichtbaar is.
991
00:34:24,619 --> 00:34:28,599
De enige manier om je onderwijs AI bestendig of AI proef te maken.
992
00:34:28,859 --> 00:34:34,739
is om je hele curriculum van vier jaar soms bij heel veel instellingen in de prullenbak te gooien.
993
00:34:34,739 --> 00:34:34,998
Zo.
994
00:34:34,998 --> 00:34:35,759
Hoppakee.
995
00:34:35,759 --> 00:34:36,899
Dat is niet leuk.
996
00:34:36,899 --> 00:34:39,599
Dan zie je ook mensen zuchten.
997
00:34:39,599 --> 00:34:42,759
Want dan hebben ze meestal net hun curriculum ontwikkeld.
998
00:34:42,759 --> 00:34:45,659
En dan kom ik langs met zo'n boodschap.
999
00:34:45,659 --> 00:34:47,179
Je moet echt nadenken.
1000
00:34:47,179 --> 00:34:48,299
Je bent docent economie.
1001
00:34:48,299 --> 00:34:49,199
Je bent docent natuurkunde.
1002
00:34:49,199 --> 00:34:50,018
Je bent docent biologie.
1003
00:34:50,659 --> 00:34:52,599
Je hebt nu een bepaalde vorm van lesgeven.
1004
00:34:52,599 --> 00:34:53,998
Je hebt een bepaalde vorm van opdrachten.
1005
00:34:53,998 --> 00:34:55,998
Dan moet je denken van AI is er.
1006
00:34:55,998 --> 00:35:04,019
Hoe kan ik het nu zo veranderen dat studenten bijvoorbeeld niet het gevoel krijgen dat ze AI moeten inzetten.
1007
00:35:04,019 --> 00:35:07,459
Kijk mijn zoon die moet soms een Duitse essay schrijven.
1008
00:35:07,459 --> 00:35:10,259
Die heeft voor het eerst AI gebruikt.
1009
00:35:10,259 --> 00:35:12,079
Omdat hij het helemaal geen zin in had.
1010
00:35:12,079 --> 00:35:15,219
Maar ik zei tegen hem tijdens examen.
1011
00:35:15,219 --> 00:35:20,619
En daar hoop ik ook dat het ministerie van onderwijs en al die andere mensen die daarmee bezig zijn luisteren.
1012
00:35:20,619 --> 00:35:25,879
Want daar is heel veel, kritiek moet ik niet zeggen, maar opmerking over.
1013
00:35:25,879 --> 00:35:30,599
Er komt hier wel met allemaal mooie manieren om je onze onderwijs AI proeft te maken.
1014
00:35:30,599 --> 00:35:34,159
Maar ze moeten nog steeds hun schriftelijke examen halen.
1015
00:35:34,159 --> 00:35:35,339
Zonder AI.
1016
00:35:35,339 --> 00:35:36,739
Zonder AI.
1017
00:35:36,739 --> 00:35:46,139
Dus de scholen zijn gedwongen eigenlijk om in de laatste jaren toch op een klassieke manier les te geven.
1018
00:35:46,139 --> 00:35:49,939
Omdat ze zich moeten voorbereiden voor de schriftelijke examen.
1019
00:35:49,939 --> 00:35:53,419
Als je het zou loslaten, als je de schriftelijke examen op een andere manier zou invullen.
1020
00:35:53,419 --> 00:36:00,759
Dan zouden heel veel scholen zich op een andere manier gaan kijken naar hun manier van onderwijs.
1021
00:36:00,759 --> 00:36:01,499
Snap ik.
1022
00:36:01,499 --> 00:36:04,819
En misschien ook wat dichter bij de populatie die er nu is.
1023
00:36:09,819 --> 00:36:14,739
In het boek heb je het net ook over mensen die het zeg maar omarmen, de technologie.
1024
00:36:14,739 --> 00:36:19,059
En die het af, die eigenlijk weerstand hebben.
1025
00:36:19,059 --> 00:36:21,279
De embracers en de rejecters noem je dat.
1026
00:36:21,279 --> 00:36:24,699
Dan heb je het zeg maar in deze context ook wel een beetje.
1027
00:36:24,699 --> 00:36:31,079
Dan neem ik aan dat als jij zegt, gooi maar de hele curriculum in de prullenbak.
1028
00:36:32,079 --> 00:36:34,039
Zul je met deze groepen te maken hebben?
1029
00:36:34,039 --> 00:36:38,659
Daar had ik eigenlijk een vraag bij.
1030
00:36:38,659 --> 00:36:44,759
Want een van de dingen is dat jij had geschreven van de embracers.
1031
00:36:44,759 --> 00:36:47,939
Zijn degenen die zich ook wel heel makkelijk overschatten.
1032
00:36:49,039 --> 00:36:50,959
Zowel de technologie als zichzelf.
1033
00:36:50,959 --> 00:36:55,479
Maar zijn er ook wel embracers en rejecters.
1034
00:36:55,479 --> 00:36:57,439
Misschien moet je straks even die termen uitleggen hoor.
1035
00:36:57,439 --> 00:36:59,099
Die zichzelf onderschatten.
1036
00:36:59,099 --> 00:37:06,319
Wat je ziet is dat er heel veel mensen zijn die denken dat ze snappen hoe AI werkt.
1037
00:37:06,319 --> 00:37:09,579
Daar hebben we in het verleden wat gehad over prompten, et cetera.
1038
00:37:09,579 --> 00:37:12,339
Dat is nu wat alweer vind ik achterhaald.
1039
00:37:12,339 --> 00:37:16,579
Want je kunt gewoon aan AI vragen en dan krijg je een juiste prompt.
1040
00:37:18,419 --> 00:37:21,199
Die rejecters zijn ook soms sceptisch.
1041
00:37:21,199 --> 00:37:23,359
Die zijn wel welwillend.
1042
00:37:23,359 --> 00:37:25,959
Die willen misschien wel, maar die hebben misschien geen tijd.
1043
00:37:25,959 --> 00:37:27,739
Die hebben geen prioriteit.
1044
00:37:27,739 --> 00:37:34,879
Het zit gewoon niet in hun om aan de slag te gaan met nieuwe technische ontwikkelingen.
1045
00:37:34,879 --> 00:37:42,419
Terwijl degene die heel snel een nieuwe smartphone koopt of een nieuwe technologische ontwikkeling omarmt.
1046
00:37:43,059 --> 00:37:48,499
Soms ook heel snel het gevoel heeft van, ah, been there, done that.
1047
00:37:48,499 --> 00:37:50,719
Ik kan het jou uitleggen.
1048
00:37:50,719 --> 00:37:56,659
Terwijl er voor mij zelfs, en misschien ook voor jullie, ik weet nog lang niets.
1049
00:37:56,659 --> 00:37:59,079
Niet heel veel over AI.
1050
00:37:59,079 --> 00:38:00,539
Het is bijna niet te doen.
1051
00:38:00,539 --> 00:38:07,539
Het is eigenlijk ondoenlijk om in zo'n veld jezelf bij te spijkeren.
1052
00:38:08,439 --> 00:38:10,339
Ook al krijg ik vijf dagen in de week daarvoor van me.
1053
00:38:10,339 --> 00:38:11,479
Ja, precies.
1054
00:38:11,479 --> 00:38:12,639
En dan zit je er nog middenin.
1055
00:38:12,639 --> 00:38:12,819
Ja.
1056
00:38:12,819 --> 00:38:16,279
Ik heb echt FOMO.
1057
00:38:16,279 --> 00:38:17,379
Echt fear of missing out.
1058
00:38:17,379 --> 00:38:20,139
Ik maak me echt zorgen van, heb ik weer iets gemist?
1059
00:38:20,139 --> 00:38:21,859
Dat heb ik losgelaten.
1060
00:38:21,859 --> 00:38:24,939
Dus in de begintijd van Generative AI.
1061
00:38:24,939 --> 00:38:26,419
Dat is lang geleden, hè?
1062
00:38:26,419 --> 00:38:27,539
Anderhalf, twee jaar geleden.
1063
00:38:27,539 --> 00:38:28,499
Lang geleden.
1064
00:38:28,499 --> 00:38:28,839
History.
1065
00:38:28,839 --> 00:38:30,899
Dan zat ik op de tooling.
1066
00:38:31,859 --> 00:38:33,559
En dan post ik Tool Alert.
1067
00:38:33,559 --> 00:38:35,739
En dan gaf ik weer een nieuw uitleg over tools, et cetera.
1068
00:38:35,739 --> 00:38:36,639
Daar ben ik van afgestapt.
1069
00:38:36,639 --> 00:38:36,979
Ja.
1070
00:38:36,979 --> 00:38:44,279
Ik focus me nu op, ik ga ook niet mee met alle nieuwe modellen, lanceringen en zo.
1071
00:38:44,279 --> 00:38:45,859
Ik wil ze nog niet meteen testen.
1072
00:38:45,859 --> 00:38:47,479
Er zijn genoeg mensen die dat doen.
1073
00:38:47,479 --> 00:38:48,719
Dus ik doe dat.
1074
00:38:48,719 --> 00:38:52,299
Ik begin ook een beetje op het gebied van AI.
1075
00:38:52,299 --> 00:38:55,519
Dus niet de, hoe zeg je dat, early innovator te worden.
1076
00:38:55,519 --> 00:38:56,599
Maar gewoon de tweede.
1077
00:38:56,599 --> 00:38:58,679
Dus iets rustiger.
1078
00:38:58,679 --> 00:38:59,639
Early adapter.
1079
00:38:59,639 --> 00:39:00,139
Yes.
1080
00:39:01,259 --> 00:39:01,939
Iets rustiger.
1081
00:39:01,939 --> 00:39:04,059
Want anders word je helemaal gek.
1082
00:39:04,059 --> 00:39:06,199
Ja, en.
1083
00:39:06,199 --> 00:39:09,619
Want wat heeft het je, zeg maar.
1084
00:39:09,619 --> 00:39:11,699
Wat leverde je dat in het begin op?
1085
00:39:11,699 --> 00:39:14,199
Wat je nu dan hebt opgegeven?
1086
00:39:14,199 --> 00:39:18,999
Nou, wat het bij mij zorgde, is die spanning.
1087
00:39:18,999 --> 00:39:22,599
Ik wilde voor de troepen uitlopen.
1088
00:39:22,599 --> 00:39:24,179
En dat was in het begin ook zo.
1089
00:39:24,179 --> 00:39:26,439
Er waren maar heel weinig mensen die ermee bezig waren.
1090
00:39:26,439 --> 00:39:28,139
Of die daar in ieder geval over schreven.
1091
00:39:28,139 --> 00:39:29,719
Of over een podcast hadden.
1092
00:39:30,659 --> 00:39:32,879
Maar je ziet dat iedereen nu opgestaan is.
1093
00:39:32,879 --> 00:39:33,839
Met respect voor iedereen.
1094
00:39:33,839 --> 00:39:35,739
Je hebt ook heel veel cowboys.
1095
00:39:35,739 --> 00:39:39,119
Mensen die, of influencers.
1096
00:39:39,119 --> 00:39:40,219
Ook heel goed.
1097
00:39:40,219 --> 00:39:42,279
Want iemand moet het doen.
1098
00:39:42,279 --> 00:39:45,939
Die alleen maar het hebben over de toolings.
1099
00:39:45,939 --> 00:39:47,259
Elke tool is nu goed.
1100
00:39:47,259 --> 00:39:48,419
Wanneer, et cetera.
1101
00:39:48,419 --> 00:39:52,059
Zonder dat ze dus de ethische kant ervan aanstippen.
1102
00:39:52,799 --> 00:39:55,479
De enige manier om mensen die sceptisch zijn mee te krijgen.
1103
00:39:55,479 --> 00:39:56,999
Is ook om duidelijk te maken van.
1104
00:39:56,999 --> 00:39:58,779
There is also a dark side.
1105
00:39:58,779 --> 00:40:03,079
Dus als ik alleen maar een AI lover zou zijn.
1106
00:40:03,079 --> 00:40:05,439
En ik zou een spreek houden.
1107
00:40:05,439 --> 00:40:08,099
Waarin ik lyrisch ben over AI.
1108
00:40:08,099 --> 00:40:09,099
Met alle prachtige.
1109
00:40:09,099 --> 00:40:10,579
Ik zou echt honderden voorbeelden kunnen noemen.
1110
00:40:10,579 --> 00:40:11,039
Nogmaals.
1111
00:40:11,039 --> 00:40:11,499
Zeker.
1112
00:40:11,499 --> 00:40:12,359
Over AI for good.
1113
00:40:12,359 --> 00:40:14,639
Dan krijg je die sceptische mensen niet mee.
1114
00:40:14,639 --> 00:40:14,999
Nee.
1115
00:40:15,379 --> 00:40:16,999
En als je alleen maar sceptisch bent.
1116
00:40:16,999 --> 00:40:18,079
Die heb je ook.
1117
00:40:18,079 --> 00:40:19,139
Dat is ook een verdienmodel.
1118
00:40:19,139 --> 00:40:22,519
Die alleen maar ons bank probeert te maken.
1119
00:40:22,519 --> 00:40:25,059
Dan krijg je de mensen niet mee.
1120
00:40:25,059 --> 00:40:28,679
Die wil elke dag er gebruik van maken.
1121
00:40:28,679 --> 00:40:30,599
En die daar profijt van hebben.
1122
00:40:30,599 --> 00:40:33,759
Ik ben een slecht voorbeeld misschien weer.
1123
00:40:33,759 --> 00:40:35,619
Maar ik ben niet zo goed in DT's.
1124
00:40:35,619 --> 00:40:36,319
En de en het.
1125
00:40:36,319 --> 00:40:37,339
Nog steeds moeite mee.
1126
00:40:37,339 --> 00:40:38,539
Mijn vrouw zegt.
1127
00:40:38,539 --> 00:40:40,599
Dat moet je echt wel onder de knie krijgen op een gegeven moment.
1128
00:40:40,599 --> 00:40:43,519
Maar door AI maak ik geen spellingsfouten meer.
1129
00:40:43,519 --> 00:40:44,719
Super.
1130
00:40:44,959 --> 00:40:46,759
Maak helemaal geen grammaticale fouten.
1131
00:40:46,759 --> 00:40:48,099
Dat heeft weer voor mij gezorgd.
1132
00:40:48,099 --> 00:40:50,539
Dat ik zelfvertrouwen nog meer heb gekregen.
1133
00:40:50,539 --> 00:40:52,399
En dat scheelt mijn vrouw heel veel werk.
1134
00:40:52,399 --> 00:40:52,999
Oh ja.
1135
00:40:52,999 --> 00:40:53,539
Ja?
1136
00:40:53,539 --> 00:40:54,399
Kijk die dat niet eens naar?
1137
00:40:54,399 --> 00:40:56,899
Ik vroeg bij hele belangrijke documenten.
1138
00:40:56,899 --> 00:40:57,579
Hey.
1139
00:40:57,579 --> 00:40:58,679
Wil je dit als je weer nakijken?
1140
00:40:58,679 --> 00:41:00,179
Want zij was namelijk heel goed.
1141
00:41:00,179 --> 00:41:00,539
Ja.
1142
00:41:00,539 --> 00:41:00,959
Oh.
1143
00:41:00,959 --> 00:41:01,419
Goed.
1144
00:41:01,419 --> 00:41:03,279
Ik herken dat.
1145
00:41:03,279 --> 00:41:04,739
Ik ben ook nog steeds een schrijffout.
1146
00:41:04,739 --> 00:41:05,759
En ik heb een juf thuis.
1147
00:41:05,759 --> 00:41:07,099
Wat dat betreft.
1148
00:41:07,099 --> 00:41:08,179
Vraag ik die of het ook nog steeds.
1149
00:41:08,179 --> 00:41:10,039
Ondanks dat ik AI in kan zetten.
1150
00:41:10,039 --> 00:41:10,459
Nog even.
1151
00:41:10,459 --> 00:41:11,319
Zou je deze toch nog.
1152
00:41:11,319 --> 00:41:12,339
Deze is wel belangrijk.
1153
00:41:12,499 --> 00:41:13,679
Zij hem toch nog even kunnen doorlezen.
1154
00:41:13,679 --> 00:41:14,139
Alsjeblieft.
1155
00:41:14,139 --> 00:41:15,459
Dus dank daarvoor.
1156
00:41:15,459 --> 00:41:17,439
Nee.
1157
00:41:17,439 --> 00:41:17,739
Ik.
1158
00:41:17,739 --> 00:41:18,579
Nou.
1159
00:41:18,579 --> 00:41:19,939
Vanaf gaat de vraag ook ineens weg.
1160
00:41:19,939 --> 00:41:20,839
Ja.
1161
00:41:21,439 --> 00:41:22,919
Dat kan gebeuren.
1162
00:41:22,919 --> 00:41:23,039
Dat heb ik wel.
1163
00:41:23,039 --> 00:41:25,179
Ja.
1164
00:41:25,179 --> 00:41:26,419
Dat had ik nog wel inderdaad.
1165
00:41:26,419 --> 00:41:27,879
Joop.
1166
00:41:27,879 --> 00:41:28,739
Zoals je vroeg net inderdaad.
1167
00:41:28,739 --> 00:41:30,339
Wat bracht hij ze toen?
1168
00:41:30,339 --> 00:41:32,039
En wat bespaart het nu?
1169
00:41:32,039 --> 00:41:33,339
Wat ik ook al heb is.
1170
00:41:33,339 --> 00:41:37,059
De mensen die op een klein deel bezig zijn.
1171
00:41:37,059 --> 00:41:39,899
Die zijn daar dan voor hun gevoel expert op.
1172
00:41:39,899 --> 00:41:40,899
Maar als het goed is.
1173
00:41:40,899 --> 00:41:41,799
Des te meer je weet.
1174
00:41:41,799 --> 00:41:43,599
Des te meer je weet dat je niet weet.
1175
00:41:43,599 --> 00:41:44,279
100%.
1176
00:41:44,279 --> 00:41:46,699
En dat wordt volgens mij nog wel eens vergeten.
1177
00:41:46,699 --> 00:41:46,859
Ja.
1178
00:41:46,859 --> 00:41:48,159
Dat je daar even de tijd vraagt.
1179
00:41:48,159 --> 00:41:48,979
Maar wat weet ik nog niet.
1180
00:41:48,979 --> 00:41:51,039
En ja.
1181
00:41:51,039 --> 00:41:52,379
Kijk dus breder.
1182
00:41:52,379 --> 00:41:53,579
Dan een kleine toepassing.
1183
00:41:53,579 --> 00:41:54,799
Ja.
1184
00:41:54,799 --> 00:41:56,839
Ik vind het ook soms jammer hoor.
1185
00:41:56,839 --> 00:41:58,819
We hebben ook collega's die de klassieke AI.
1186
00:41:58,819 --> 00:42:00,039
Of de classificerende AI.
1187
00:42:00,039 --> 00:42:02,519
Al heel lang omarmen.
1188
00:42:03,359 --> 00:42:06,399
En die vinden de generatieve AI boys.
1189
00:42:06,399 --> 00:42:07,379
Of jobby girls.
1190
00:42:07,379 --> 00:42:09,899
Eigenlijk moeten ze samenwerken.
1191
00:42:09,899 --> 00:42:10,419
Zeker.
1192
00:42:10,419 --> 00:42:12,039
Dan zie je het nog een beetje.
1193
00:42:12,039 --> 00:42:13,339
Niet bij iedereen natuurlijk.
1194
00:42:13,339 --> 00:42:14,759
Maar toch bij een grote groep.
1195
00:42:14,759 --> 00:42:17,719
Die vinden die gen AI boys.
1196
00:42:17,719 --> 00:42:18,679
Ja.
1197
00:42:18,679 --> 00:42:20,379
Die komen net om de hoek kijken.
1198
00:42:20,379 --> 00:42:20,979
Zeggen ze dan.
1199
00:42:20,979 --> 00:42:21,399
Weet je wel.
1200
00:42:21,399 --> 00:42:24,379
In zekere zin is dat natuurlijk ook zo.
1201
00:42:24,379 --> 00:42:24,639
Ja.
1202
00:42:24,639 --> 00:42:27,699
Maar het is de voortvloeisel.
1203
00:42:27,699 --> 00:42:29,379
Van wat zij hebben ontwikkeld.
1204
00:42:29,379 --> 00:42:31,259
En nog steeds aan het ontwikkelen zijn.
1205
00:42:31,899 --> 00:42:34,499
En ik hoop dat we met z'n allen.
1206
00:42:34,499 --> 00:42:38,599
Echt AI gebruiken om onze levens.
1207
00:42:38,599 --> 00:42:40,439
Makkelijker te maken.
1208
00:42:40,439 --> 00:42:40,699
Ja.
1209
00:42:40,699 --> 00:42:42,359
Nou ik moet zeggen dat.
1210
00:42:42,359 --> 00:42:43,419
Rond dat gen AI.
1211
00:42:43,419 --> 00:42:45,359
En de traditionele machine learning.
1212
00:42:45,359 --> 00:42:47,099
Als we dit uitzenden.
1213
00:42:47,099 --> 00:42:49,099
Dan is er ook een aflevering geweest.
1214
00:42:49,099 --> 00:42:49,579
Over.
1215
00:42:49,579 --> 00:42:52,799
Dat ik die verschillende technologieën.
1216
00:42:52,799 --> 00:42:54,939
Die onder de paraplu van AI.
1217
00:42:54,939 --> 00:42:56,159
Vallen.
1218
00:42:56,159 --> 00:42:57,459
Dat ik daar uitleg over geef.
1219
00:42:57,459 --> 00:42:58,439
Want het is ook jammer.
1220
00:42:58,439 --> 00:42:59,819
Dat als je denkt.
1221
00:42:59,819 --> 00:43:01,859
Dat AI ook alleen maar generatieve.
1222
00:43:01,859 --> 00:43:02,419
AI is.
1223
00:43:02,419 --> 00:43:03,599
Want daarmee sluit je eigenlijk.
1224
00:43:03,599 --> 00:43:04,099
Een heel.
1225
00:43:04,099 --> 00:43:05,339
Deel af.
1226
00:43:05,339 --> 00:43:05,819
Van.
1227
00:43:05,819 --> 00:43:07,079
Technologieën.
1228
00:43:07,079 --> 00:43:08,579
Die geweldige oplossingen kunnen zijn.
1229
00:43:08,579 --> 00:43:09,379
Voor je use case.
1230
00:43:09,379 --> 00:43:09,919
Die je hebt.
1231
00:43:09,919 --> 00:43:10,519
Waar.
1232
00:43:10,519 --> 00:43:12,239
Gen AI misschien helemaal niet past.
1233
00:43:12,239 --> 00:43:13,459
Of nog erger.
1234
00:43:13,459 --> 00:43:14,719
Dat mensen denken van.
1235
00:43:14,719 --> 00:43:16,719
AI is ChatGPT.
1236
00:43:16,719 --> 00:43:17,279
Ja.
1237
00:43:17,279 --> 00:43:19,059
Als het kunnen uitspreken.
1238
00:43:19,059 --> 00:43:21,619
Het is ook een rot term.
1239
00:43:21,619 --> 00:43:22,299
Wat dat betreft.
1240
00:43:22,499 --> 00:43:24,899
Ik ben wel heel erg benieuwd.
1241
00:43:24,899 --> 00:43:26,699
Met alles wat jij weet.
1242
00:43:26,699 --> 00:43:27,659
Over dit onderwerp.
1243
00:43:27,659 --> 00:43:28,879
Als je nou eens.
1244
00:43:28,879 --> 00:43:30,819
Alle beperkingen.
1245
00:43:30,819 --> 00:43:31,679
Los zou laten.
1246
00:43:31,679 --> 00:43:32,979
Waar zou jij dan.
1247
00:43:32,979 --> 00:43:34,379
Idealiter AI voor.
1248
00:43:34,379 --> 00:43:35,139
Willen inzetten.
1249
00:43:35,139 --> 00:43:36,119
Dat mag in je werk zijn.
1250
00:43:36,119 --> 00:43:36,819
Dat zou.
1251
00:43:37,239 --> 00:43:39,359
In je privéleven kunnen zijn.
1252
00:43:39,359 --> 00:43:40,719
Maar daar geef ik je wel eventjes.
1253
00:43:40,719 --> 00:43:41,879
Wat bedenktijd voor.
1254
00:43:41,879 --> 00:43:46,639
Oh.
1255
00:43:46,639 --> 00:43:47,419
Dat is een moeilijke vraag.
1256
00:43:49,479 --> 00:43:50,879
Dat is net zo'n vraag van.
1257
00:43:50,879 --> 00:43:53,659
Geen grenzen meer.
1258
00:43:53,659 --> 00:43:55,499
Niets houdt ons nog tegen.
1259
00:43:55,499 --> 00:44:01,439
Het leven zoals wij het altijd wilden beleven.
1260
00:44:01,439 --> 00:44:03,019
Ik denk dat.
1261
00:44:03,019 --> 00:44:08,039
Dat ik het zou inzetten.
1262
00:44:08,039 --> 00:44:09,619
Ik heb ook gesproken met psychologen.
1263
00:44:09,619 --> 00:44:12,759
Om trauma's te verwerken.
1264
00:44:12,759 --> 00:44:15,299
Ik ben geen psycholoog.
1265
00:44:16,499 --> 00:44:19,699
Best wel triest.
1266
00:44:19,699 --> 00:44:23,119
Mijn moeder is drie zoons van haar kwijtgeraakt.
1267
00:44:23,119 --> 00:44:23,299
Zo.
1268
00:44:23,299 --> 00:44:27,319
En hoe mooi zou het zijn.
1269
00:44:27,319 --> 00:44:31,759
Als ze bewegende beelden van haar zoons.
1270
00:44:31,759 --> 00:44:32,559
Van mijn broers.
1271
00:44:32,559 --> 00:44:34,279
Ik heb het niet geprobeerd.
1272
00:44:34,279 --> 00:44:35,339
Ik durfde het niet aan.
1273
00:44:35,339 --> 00:44:36,339
Want dat kan.
1274
00:44:36,339 --> 00:44:37,279
Tegenwoordig kun je.
1275
00:44:37,279 --> 00:44:40,819
Van hele oude foto's weer laten bewegen.
1276
00:44:40,819 --> 00:44:43,259
Ik denk dat zij het.
1277
00:44:43,259 --> 00:44:44,419
Ik durf het niet.
1278
00:44:44,419 --> 00:44:44,919
Maar.
1279
00:44:45,419 --> 00:44:46,719
Dus het gebruiken.
1280
00:44:46,719 --> 00:44:47,699
Je eigen gebruiken.
1281
00:44:47,699 --> 00:44:49,119
Om mensen met trauma's.
1282
00:44:49,119 --> 00:44:50,419
Of het nou een verlies is.
1283
00:44:50,419 --> 00:44:52,159
Of het nou een gebeurtenis is.
1284
00:44:52,159 --> 00:44:54,159
Dat je met behulp van AI.
1285
00:44:54,159 --> 00:44:55,259
Een bepaalde herinnering.
1286
00:44:55,259 --> 00:44:56,459
Kunt weghalen.
1287
00:44:56,459 --> 00:44:57,899
Wat niet prettig is.
1288
00:44:57,899 --> 00:45:00,579
Of een nieuwe herinnering ervoor in de plaats te zetten.
1289
00:45:00,579 --> 00:45:02,019
Waardoor mensen.
1290
00:45:02,019 --> 00:45:05,079
Wat fijner in het leven staan.
1291
00:45:05,079 --> 00:45:06,319
Wauw.
1292
00:45:06,319 --> 00:45:06,759
Mooi.
1293
00:45:06,759 --> 00:45:07,379
Zo.
1294
00:45:07,379 --> 00:45:07,819
Dat is.
1295
00:45:07,819 --> 00:45:08,499
Ja.
1296
00:45:08,499 --> 00:45:09,379
Dat is een geweldige.
1297
00:45:09,379 --> 00:45:10,679
Ik heb er een beetje kippenvel.
1298
00:45:10,679 --> 00:45:11,079
Nou ja.
1299
00:45:11,079 --> 00:45:11,959
Dank je wel.
1300
00:45:11,959 --> 00:45:12,599
Ja.
1301
00:45:12,599 --> 00:45:13,059
Jeetje.
1302
00:45:13,059 --> 00:45:14,199
Dat is echt een hele mooie.
1303
00:45:14,339 --> 00:45:14,779
Ja.
1304
00:45:14,779 --> 00:45:15,159
Ja.
1305
00:45:15,159 --> 00:45:16,499
Dat.
1306
00:45:16,499 --> 00:45:17,819
Ja.
1307
00:45:17,819 --> 00:45:18,039
Want.
1308
00:45:18,039 --> 00:45:19,019
Op zich.
1309
00:45:19,019 --> 00:45:20,119
De.
1310
00:45:20,119 --> 00:45:22,019
Er was nu iemand.
1311
00:45:22,019 --> 00:45:23,499
Die had dat inderdaad gemaakt.
1312
00:45:23,499 --> 00:45:24,899
Met kinderfoto's.
1313
00:45:24,899 --> 00:45:25,739
Die laten bewegen.
1314
00:45:25,739 --> 00:45:26,979
En dat heeft wel.
1315
00:45:26,979 --> 00:45:28,519
Dusdanig effect.
1316
00:45:28,519 --> 00:45:29,279
Op iemand.
1317
00:45:29,279 --> 00:45:29,999
Ik had het ook bij.
1318
00:45:29,999 --> 00:45:30,839
Bij.
1319
00:45:31,039 --> 00:45:32,099
Eva Yenek gezien.
1320
00:45:32,099 --> 00:45:33,319
En die schoot ook.
1321
00:45:33,319 --> 00:45:34,099
Bijvoorbeeld helemaal vol.
1322
00:45:34,099 --> 00:45:36,239
Met de foto van haarzelf.
1323
00:45:36,239 --> 00:45:37,179
Die ging bewegen.
1324
00:45:37,179 --> 00:45:38,479
Dus je moet daar wel.
1325
00:45:38,479 --> 00:45:39,539
Heel voorzichtig mee zijn.
1326
00:45:39,539 --> 00:45:40,099
Dus ik denk wel.
1327
00:45:40,099 --> 00:45:40,819
Dat het goed is.
1328
00:45:40,819 --> 00:45:41,159
Dat je.
1329
00:45:41,159 --> 00:45:41,919
Ja.
1330
00:45:41,919 --> 00:45:43,059
Dat je daarover nadenkt.
1331
00:45:43,059 --> 00:45:44,479
Van ga ik dat wel of niet doen.
1332
00:45:44,479 --> 00:45:44,939
Ja.
1333
00:45:44,939 --> 00:45:46,139
Dat is dus die ethische discussie.
1334
00:45:46,139 --> 00:45:46,539
Ethieke.
1335
00:45:46,539 --> 00:45:48,899
Die verhobbelt echt achter de feiten aan.
1336
00:45:48,899 --> 00:45:49,679
Helaas.
1337
00:45:49,679 --> 00:45:51,599
Er zijn nu ook bedrijven.
1338
00:45:51,599 --> 00:45:51,899
Die zeggen.
1339
00:45:51,899 --> 00:45:53,679
Wij kunnen uw overleden geliefden.
1340
00:45:53,679 --> 00:45:54,399
Weer tot leven wekken.
1341
00:45:54,399 --> 00:45:55,019
Met avatars.
1342
00:45:55,019 --> 00:45:55,619
En hologrammen.
1343
00:45:55,679 --> 00:45:56,179
chatbots.
1344
00:45:56,179 --> 00:45:56,499
Ja.
1345
00:45:56,499 --> 00:45:58,599
En psychologen zeggen dan.
1346
00:45:58,599 --> 00:46:00,119
Dat is wel het probleem.
1347
00:46:00,119 --> 00:46:02,999
Want het rouwproces wordt dan maar niet ingezet.
1348
00:46:02,999 --> 00:46:04,219
Dus die.
1349
00:46:04,219 --> 00:46:07,779
Daar moeten we.
1350
00:46:07,779 --> 00:46:08,879
Daar moeten we echt iets mee.
1351
00:46:08,879 --> 00:46:10,399
Dat moet echt nadenken van.
1352
00:46:10,399 --> 00:46:10,639
Kijk.
1353
00:46:10,639 --> 00:46:11,339
Zolang er een gat.
1354
00:46:11,339 --> 00:46:12,159
Vraag naar is.
1355
00:46:12,159 --> 00:46:13,859
Dan zal er bedrijven altijd opstaan.
1356
00:46:13,859 --> 00:46:14,879
Zeker.
1357
00:46:14,879 --> 00:46:15,619
Ja.
1358
00:46:15,619 --> 00:46:17,679
Maar ik hoop dat er iets is.
1359
00:46:17,679 --> 00:46:19,139
Die die bedrijven wakker schudt.
1360
00:46:19,139 --> 00:46:20,519
En misschien reguleren.
1361
00:46:20,519 --> 00:46:21,079
Ja.
1362
00:46:21,079 --> 00:46:23,179
Ik.
1363
00:46:23,179 --> 00:46:24,399
Wat.
1364
00:46:24,399 --> 00:46:24,639
Wat.
1365
00:46:24,639 --> 00:46:25,499
Wat zou je mensen.
1366
00:46:25,499 --> 00:46:26,659
mee willen geven.
1367
00:46:26,659 --> 00:46:28,939
Zit er een soort van.
1368
00:46:28,939 --> 00:46:30,239
Moraal van het verhaal.
1369
00:46:30,239 --> 00:46:30,799
In je boek.
1370
00:46:30,799 --> 00:46:32,319
Ja natuurlijk.
1371
00:46:32,319 --> 00:46:35,779
Het moet bij jezelf beginnen.
1372
00:46:35,779 --> 00:46:36,219
Beetje.
1373
00:46:36,219 --> 00:46:37,219
Ook cliché.
1374
00:46:37,219 --> 00:46:37,499
Maar.
1375
00:46:37,499 --> 00:46:38,899
Begin alsjeblieft.
1376
00:46:38,899 --> 00:46:40,219
Met experimenteren.
1377
00:46:40,219 --> 00:46:42,139
Zodat je snapt wat het is.
1378
00:46:42,139 --> 00:46:43,599
Wees niet bang.
1379
00:46:43,599 --> 00:46:45,479
Wees bewust.
1380
00:46:45,479 --> 00:46:47,199
Dat het heel veel energie verbruikt.
1381
00:46:47,199 --> 00:46:48,239
Maar zorg er dan voor.
1382
00:46:48,239 --> 00:46:48,879
Dat je het wel.
1383
00:46:48,879 --> 00:46:50,819
Op zo'n manier gebruikt.
1384
00:46:50,819 --> 00:46:52,339
Geen honderd grapjes of zo.
1385
00:46:52,339 --> 00:46:52,719
Weet je wel.
1386
00:46:52,719 --> 00:46:55,039
Maar je moet er wel mee spelen.
1387
00:46:55,479 --> 00:46:56,879
Het wordt een commodity.
1388
00:46:56,879 --> 00:46:58,479
Het wordt een vanzelfsprekendheid.
1389
00:46:58,479 --> 00:46:59,779
Of je het nou wilt of niet.
1390
00:46:59,779 --> 00:47:01,139
Het komt in onze hardware.
1391
00:47:01,139 --> 00:47:02,239
Het komt in onze software.
1392
00:47:02,239 --> 00:47:04,279
Dus.
1393
00:47:04,279 --> 00:47:05,779
Ik zeg altijd.
1394
00:47:05,779 --> 00:47:07,859
Op mijn CV stond er 20 jaar geleden.
1395
00:47:07,859 --> 00:47:09,099
Dat ik pc vaardig was.
1396
00:47:10,499 --> 00:47:11,339
Nu staat er.
1397
00:47:11,339 --> 00:47:14,819
Dat ik Microsoft Word en Excel en PowerPoint kende.
1398
00:47:14,819 --> 00:47:18,159
Nu zie ik dat mijn studenten gebruiken in hun CV.
1399
00:47:18,159 --> 00:47:20,119
Dat ze AI-vaardig zijn.
1400
00:47:20,119 --> 00:47:20,539
Oh ja.
1401
00:47:21,379 --> 00:47:22,779
En ik hoop dat we als.
1402
00:47:22,779 --> 00:47:23,619
En ik hoop.
1403
00:47:23,619 --> 00:47:24,659
Laatste eigenlijk.
1404
00:47:24,659 --> 00:47:30,639
Wat ik hoop is dat AI ervoor zorgt dat de menselijke contacten weer aangehaald worden.
1405
00:47:30,639 --> 00:47:33,679
En dat we afstappen van het lezen van mails.
1406
00:47:35,439 --> 00:47:39,119
Het spreken via de digitale wereld.
1407
00:47:39,119 --> 00:47:41,799
Maar dat we echt elkaar proberen te zien.
1408
00:47:41,799 --> 00:47:42,659
In de ogen te kijken.
1409
00:47:42,659 --> 00:47:44,499
En dus het geprek aan te gaan.
1410
00:47:44,499 --> 00:47:46,599
Dat hoop ik ook in het onderwijs.
1411
00:47:47,319 --> 00:47:48,939
Vind ik een hele mooie.
1412
00:47:48,939 --> 00:47:51,919
Ik ga toch nog even je boek aanprijzen.
1413
00:47:51,919 --> 00:47:53,599
Als afsluiter.
1414
00:47:53,599 --> 00:47:55,539
Je schrijft in het begin van.
1415
00:47:55,539 --> 00:47:58,659
Je kan eigenlijk hem willekeurig ergens openslaan.
1416
00:47:58,659 --> 00:48:00,719
En dat is ook daadwerkelijk zo.
1417
00:48:00,719 --> 00:48:02,719
Dus het zijn ook hoofdstukken.
1418
00:48:02,719 --> 00:48:05,459
Die echt een thema hebben.
1419
00:48:05,459 --> 00:48:07,719
En je kan ergens beginnen.
1420
00:48:07,719 --> 00:48:10,499
Dus je spreekt heel veel experts.
1421
00:48:10,499 --> 00:48:11,879
En daar kan je dan mee beginnen.
1422
00:48:11,879 --> 00:48:13,759
Heel toegankelijk boek.
1423
00:48:13,759 --> 00:48:15,719
Dus ik wil hem echt wel aanprijzen aan iedereen.
1424
00:48:15,719 --> 00:48:16,339
Aan iedereen.
1425
00:48:16,339 --> 00:48:19,499
En noem ook nog even je eigen podcast.
1426
00:48:19,499 --> 00:48:21,859
Het heet Fontys AI Garage.
1427
00:48:21,859 --> 00:48:22,659
Ja.
1428
00:48:22,659 --> 00:48:25,039
Het is AI Garage.
1429
00:48:25,039 --> 00:48:27,479
En we hebben iedere maand een aflevering.
1430
00:48:27,479 --> 00:48:30,099
Waarin we vooral mensen uit het onderwijs.
1431
00:48:30,099 --> 00:48:32,479
Maar ook daarbuiten interviewen.
1432
00:48:32,479 --> 00:48:33,939
Hartstikke mooi.
1433
00:48:33,939 --> 00:48:35,799
Nou Erdintje.
1434
00:48:35,799 --> 00:48:39,279
Ontzettend bedankt dat je dit allemaal met ons wilde delen.
1435
00:48:39,279 --> 00:48:41,479
En nogmaals.
1436
00:48:41,479 --> 00:48:42,839
Boek.
1437
00:48:42,839 --> 00:48:43,719
Herg interessant.
1438
00:48:43,719 --> 00:48:44,759
Overal te krijgen.
1439
00:48:44,759 --> 00:48:47,079
Nou ja dankjewel.
1440
00:48:47,079 --> 00:48:47,899
Heel erg bedankt.
1441
00:48:47,899 --> 00:48:52,019
Leuk dat je er weer luisterde.
1442
00:48:52,019 --> 00:48:53,859
Naar een aflevering van AIToday live.
1443
00:48:53,859 --> 00:48:57,279
Vergeet je niet te abonneren op onze nieuwsbrief.
1444
00:48:57,279 --> 00:48:58,639
Exclusieve content.
1445
00:48:58,639 --> 00:49:00,099
Krijg je exclusieve content.
1446
00:49:00,099 --> 00:49:03,799
Hoor je Erdinç ook nog een hele leuke vraag beantwoorden.
1447
00:49:03,799 --> 00:49:04,319
Bijvoorbeeld.
1448
00:49:04,319 --> 00:49:06,899
En we hebben daar van alles over achter de schermen.
1449
00:49:06,899 --> 00:49:09,659
We delen daar ontzettend leuke informatie.
1450
00:49:09,659 --> 00:49:11,059
Dus abonneer je.
1451
00:49:11,059 --> 00:49:12,859
De link staat in de show notes.
1452
00:49:13,359 --> 00:49:14,039
Tot de volgende keer.
1453
00:49:14,039 --> 00:49:14,879
Tot de volgende keer.