AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is uitgeroepen tot AI Podcast of the Year 2025 en is drie keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S08E43 - The European Trust Alliance: samen tegen desinformatie
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
Rob van Beek, oprichter van de European Trust Alliance, zag zijn puber slachtoffer worden van desinformatie op social media. Hij ontwikkelde een netwerk van universiteiten en gemeenten dat Europa weerbaar maakt tegen nepnieuws. Oekraïne toont hoe het moet: influencers inzetten tegen Russische deepfakes, terwijl Nederland nog worstelt met theorie.
Zijn autonomy lab helpt bedrijven overstappen van Amerikaanse naar Europese technologie - van ChatGPT naar Mistral kost tonnen, maar geeft digitale autonomie terug. Morgen kun je beginnen met drie willekeurige claims checken in nieuwsberichten en jezelf afvragen waar informatie vandaan komt.
Onderwerpen
- European Trust Alliance en de strijd tegen desinformatie
- Oekraïense aanpak van propaganda en deepfakes
- AI als wapen tegen én oorzaak van desinformatie
- Overstap van Amerikaanse naar Europese technologie
- Het autonomy lab voor bedrijven
- Organisatie: The European Trust Alliance (THETA) | Building a Trusted Digital Future
- Organisatie: Regionale Ontwikkelingsmaatschappij Utrecht (ROM)
- Museum: Museum Beeld en Geluid
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: European Trust Alliance - TETA - Universiteit Utrecht - ROM - Azure - Microsoft - ChatGPT - Mistral - Oekraïne - Rusland - Iran
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:04,200
Wij zijn live aanwezig op de uitreiking van de Nederlandse AI-award
2
00:00:04,200 --> 00:00:08,199
en spreken met Rob van Beek over zijn genomineerde organisatie,
3
00:00:08,199 --> 00:00:10,919
de European Trust Alliance.1
00:00:00,000 --> 00:00:04,200
Wij zijn live aanwezig op de uitreiking van de Nederlandse AI-award
2
00:00:04,200 --> 00:00:08,199
en spreken met Rob van Beek over zijn genomineerde organisatie,
3
00:00:08,199 --> 00:00:10,919
de European Trust Alliance.
4
00:00:10,919 --> 00:00:15,599
Dit is een netwerk van universiteiten, gemeente en media partijen
5
00:00:15,599 --> 00:00:18,719
die samenwerken tegen desinformatie.
6
00:00:18,719 --> 00:00:20,719
Laat we luisteren naar Rob.
7
00:00:23,519 --> 00:00:27,199
Joop: Leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.
8
00:00:27,199 --> 00:00:32,238
Joop: En vandaag staan we echt midden in Museum Beeld en Geluid.
9
00:00:32,558 --> 00:00:34,878
Joop: Dus er kan het bijgeluid bij staan.
10
00:00:35,039 --> 00:00:36,398
Joop: Bij komen vandaag.
11
00:00:37,679 --> 00:00:38,558
Joop: Voor extra pret.
12
00:00:39,518 --> 00:00:41,759
Joop: Mijn naam, Joop Snijder, CTO Aigency.
13
00:00:41,758 --> 00:00:44,798
Niels: Mijn naam, Niels Naglé Data & AI, bij Info Support.
14
00:00:44,798 --> 00:00:50,318
Joop: En we hebben wel om gedacht.
15
00:00:50,639 --> 00:00:55,999
Niels: We hebben inderdaad iemand mooi in smoking en naast ons staan vandaag inderdaad, Rob van Beek.
16
00:00:55,999 --> 00:00:57,118
Niels: Welkom leuk dat je aansluit.
17
00:00:57,199 --> 00:00:59,758
Niels: Ik denk, mijn smoking komt niet zo vaak in de podcast.
18
00:01:00,158 --> 00:01:00,958
Joop: Hartstikke mooi.
19
00:01:00,959 --> 00:01:04,319
Joop: We zullen dadelijk even een foto maken, zouden we gewoon in de nieuwsbrief kunnen zetten.
20
00:01:04,479 --> 00:01:06,078
Niels: We hebben er geen camera bij, inderdaad.
21
00:01:06,318 --> 00:01:08,958
Joop: Ja Rob zou je even heel kort voor willen stellen.
22
00:01:08,958 --> 00:01:12,398
Joop: En waarom je eigenlijk hier bij een workshop zit.
23
00:01:12,398 --> 00:01:13,279
Joop: Want je bent genomineerd.
24
00:01:13,919 --> 00:01:14,479
Rob: Ja, zeker.
25
00:01:14,799 --> 00:01:16,078
Rob: Heel verrassend.
26
00:01:16,638 --> 00:01:18,798
Rob: Ik ben Rob van Beek, dat zeiden jullie al.
27
00:01:18,798 --> 00:01:21,039
Rob: Ik ben ik een beetje een dubbelfunctie.
28
00:01:21,039 --> 00:01:26,158
Rob: Mijn één rol is dat ik strategie ben bij de regionale ontwikkelingsmaatschappij in Utrecht.
29
00:01:27,279 --> 00:01:30,478
Rob: Als je daar meer over wil weten, dan komen we daar dadelijk vast op.
30
00:01:30,639 --> 00:01:37,278
Rob: En het tweede wat ik doe, en daar ben ik ook vandaag hier voor, is dat ik de trekker ben van de European Trust Alliance.
31
00:01:37,279 --> 00:01:48,878
Rob: En de European Trust Alliance is een zegt het al, een alliantie waarbij we eigenlijk proberen om Europese samenwerkingen op te zetten rondom vertrouwen in informatie, de autonomiteit van data.
32
00:01:48,879 --> 00:01:53,598
Rob: En ook het fatsoenlijk en tegen omgaan met nieuwe technologieën zoals AI.
33
00:01:53,838 --> 00:01:56,958
Rob: Die awards waar we vandaag zijn, die gaan daarover.
34
00:01:57,119 --> 00:02:01,918
Rob: En de jury vond het leuk om ons te nomineren en dat vinden wij natuurlijk hartstikke gaaf.
35
00:02:03,038 --> 00:02:05,438
Rob: Maar er zijn nog een hele hoop andere partijen.
36
00:02:05,438 --> 00:02:06,958
Rob: En daarom zijn we zo mooi vereerd.
37
00:02:06,959 --> 00:02:07,919
Rob: En ik vind het heel gaaf.
38
00:02:07,919 --> 00:02:11,598
Rob: Want je binnen en je weet nooit wie er allemaal willen, niet een smoking aan hebben.
39
00:02:11,598 --> 00:02:15,759
Rob: Maar het is echt heel mooi om te zien dat bijna iedereen er super mooi uitziet.
40
00:02:15,758 --> 00:02:19,518
Rob: En dat gewoon op een zonnige middag in je avondkleding.
41
00:02:19,919 --> 00:02:21,999
Rob: Dat is toch wel een beetje een vreemd gevoel.
42
00:02:21,999 --> 00:02:24,319
Joop: Humbert Tan die opende het hele verhaal.
43
00:02:24,318 --> 00:02:28,078
Joop: En die zei: ik kan me niet herinneren dat ik ooit op een woensdagmiddag in het smoking heb gezeten.
44
00:02:28,158 --> 00:02:28,878
Joop: Exact, ik ook niet.
45
00:02:29,038 --> 00:02:30,719
Joop: Ik sluit me daar helemaal bij aan.
46
00:02:30,878 --> 00:02:32,878
Joop: Maar we gaan het over iets heel serieus hebben.
47
00:02:32,878 --> 00:02:39,358
Joop: En even je zei de European.
48
00:02:39,519 --> 00:02:40,878
Joop: En je kort hem af met Theta.
49
00:02:41,038 --> 00:02:42,879
Joop: Theta, de Griekse letter T.
50
00:02:43,358 --> 00:02:44,078
Joop: Precies.
51
00:02:44,079 --> 00:02:46,799
Joop: Zo gaan we het vandaag denk ik te doen, dat is het koosnaam.
52
00:02:46,878 --> 00:02:47,358
Joop: Precies.
53
00:02:47,358 --> 00:02:50,478
Joop: En ik was wel benieuwd: kan je ons meenemen.
54
00:02:50,798 --> 00:02:57,119
Joop: Waar je voor het eerst te maken kreeg met desinformatie, maar dat je het echt voelde.
55
00:02:57,919 --> 00:03:01,999
Joop: Hier gaat iets mis met digitale informatie, met nep nieuws.
56
00:03:03,598 --> 00:03:05,758
Rob: Wij hebben stiekem zitten voorbespreken, natuurlijk.
57
00:03:05,759 --> 00:03:07,839
Joop: En jij raakt me nu meteen waar het echt over gaat.
58
00:03:07,839 --> 00:03:09,759
Rob: Nee, kijk, ik ben vader van drie pubers.
59
00:03:09,758 --> 00:03:15,359
Rob: En mijn pubers groeien allemaal op in een compleet andere wereld van informatie dan waar wij in opgegroeid zijn.
60
00:03:15,358 --> 00:03:20,479
Rob: Ik zeg maar wij, ik denk dat ik iets ouder ben dan jullie, maar ik ben daar in ieder geval heel anders in opgegroeid.
61
00:03:20,559 --> 00:03:27,519
Rob: En een van mijn kinderen is ook echt middelpunt geweest van de leugens die in social media kunt meemaken.
62
00:03:27,519 --> 00:03:35,279
Rob: Dus dan word je geconfronteerd als ouder met het feit dat er van alles gebeurt in al die kanalen, waar je zelf helemaal geen invloed op hebt.
63
00:03:35,839 --> 00:03:38,719
Rob: Gelukkig zit ik bij de ROM en de regionale ontwikkelingsmaatschappij.
64
00:03:38,798 --> 00:03:48,319
Rob: En in het kader daarvan waren we in Hilversum met een aantal partijen in gesprek over wat moet er nou hier waar we vandaag ook zijn op het mediapark in de toekomst allemaal gebeuren.
65
00:03:48,639 --> 00:03:51,198
Rob: En ik ben een merkenmens van oudsher.
66
00:03:51,198 --> 00:03:53,999
Rob: Dus ik probeer altijd gedachten daarover te formuleren.
67
00:03:53,999 --> 00:04:02,078
Rob: En ik zei zou het nou niet gaaf zijn als we hier op het mediapark een soort universiteit hebben die wereldwijd leading is op het gebied van desinformatie.
68
00:04:02,318 --> 00:04:05,519
Rob: Dat vond ik zelf een leuke gedacht, dus ik denk, ik spreek hem uit.
69
00:04:05,598 --> 00:04:09,199
Rob: En eigenlijk raakten we daar verder over aan de praat.
70
00:04:09,198 --> 00:04:18,878
Rob: En voor we het wisten, hadden we toch wel met een aantal partijen van Theta's opgericht door vijf initiatiefnemers, Beeld en Geluid waar we nu zijn, Universiteit Utrecht, Hogeschool Utrecht.
71
00:04:18,878 --> 00:04:20,319
Rob: De ROM zelf.
72
00:04:20,319 --> 00:04:24,799
Rob: En dan vergeet ik de vijfde dat is de gemeente Hilversum, natuurlijk.
73
00:04:24,799 --> 00:04:27,999
Rob: Want de gemeente Hilversum is een van onze grootste supporters.
74
00:04:27,999 --> 00:04:30,958
Rob: Gert van de top, de burgemeester is ook ambassadeur van Theta.
75
00:04:31,118 --> 00:04:36,798
Rob: En het is heel natuurlijk ook echt wel aan gelegen dat de media die hier zijn ook een toekomst heeft.
76
00:04:37,439 --> 00:04:39,038
Rob: Daar kom ik meteen weer even terug.
77
00:04:39,759 --> 00:04:43,918
Rob: Lang verhaal kort, we zijn een onderzoek gaan doen, we zijn met heel veel mensen gaan praten.
78
00:04:43,918 --> 00:04:47,918
Rob: Van als we nou zo'n universiteit willen oprichten, wat moet er dan allemaal zijn?
79
00:04:47,918 --> 00:04:51,279
Rob: En uiteindelijk is dan een alliantie geworden open.
80
00:04:51,598 --> 00:04:57,598
Rob: Organisatie, die op allerlei thema's probeert internationale en landelijke samenwerkingen op te zetten.
81
00:04:57,598 --> 00:04:59,438
Rob: En dat doen we op drie thema's.
82
00:04:59,679 --> 00:05:01,519
Rob: De eerste is nieuws en informatie.
83
00:05:02,079 --> 00:05:10,319
Rob: Hoe kunnen we ervoor zorgen dat onze kinderen laat ik het maar zo even zeggen, ook een toekomst in kunnen waarin ze nieuws en informatie nog op een vertrouwde manier kunnen consumeren.
84
00:05:10,319 --> 00:05:17,759
Rob: Dus dat ze bijvoorbeeld kunnen zien wat het vandaan komt, hoe het bewerkt is, wie de afzender is, of er een keurmerk in zit, allerlei van dat soort zaken.
85
00:05:17,759 --> 00:05:20,759
Rob: Het tweede thema is autonome data.
86
00:05:20,319 --> 00:05:23,799
Rob: En dat gaat er eigenlijk omdat, en dat is nu vrij actueel.
87
00:05:24,038 --> 00:05:30,438
Rob: Iedereen weet inmiddels wel dat er heel veel data van ons bij grote big tech bedrijven liggen, dat is best een kwalijke zaak.
88
00:05:30,598 --> 00:05:35,799
Rob: Als je ziet dat de macht op data eigenlijk bij vijf internationale clubs ligt, daar moeten we van af.
89
00:05:35,798 --> 00:05:36,998
Rob: En dat is een weeffout.
90
00:05:36,998 --> 00:05:46,999
Rob: En die is ontstaan doordat we met z'n allen heel erg in de tengels van al die grote sociale media en Google-achtige zaken zijn terecht gekomen.
91
00:05:47,478 --> 00:05:50,918
Joop: Als ik maar gewoon breken, want dit gaat echt best wel heel groot.
92
00:05:51,079 --> 00:05:53,238
Joop: Dan hebben de vijf big tech.
93
00:05:53,238 --> 00:05:56,438
Joop: Maar je zegt ook, maar de gemeente Hilversum stap je ook in.
94
00:05:57,399 --> 00:06:00,679
Joop: Hoe komt dat lokale dan bij elkaar bij zo'n groot vraagstuk?
95
00:06:00,679 --> 00:06:02,279
Rob: Ja, eigenlijk op allerlei manieren.
96
00:06:02,279 --> 00:06:05,719
Rob: Want als je stel, je bent de burgemeester van de gemeente Hilversum.
97
00:06:05,719 --> 00:06:10,598
Rob: Dan heb je niet alleen het een van de grootste mediaparken van Europa waar je over gaat.
98
00:06:10,918 --> 00:06:19,158
Rob: Waar journalistieke organisaties zitten, die bijvoorbeeld ervaren dat mensen het nieuws en de informatie die ze publiceren niet meer vertrouwen.
99
00:06:19,478 --> 00:06:20,759
Rob: Daar heb je wat mee te doen.
100
00:06:20,758 --> 00:06:24,199
Rob: Maar tegelijkertijd ben je ook verantwoordelijk voor de veiligheidsdriehoek.
101
00:06:24,199 --> 00:06:27,799
Rob: Dus op het moment dat er iets gebeurt, dan moet je met brandweer en politie in gesprek.
102
00:06:27,798 --> 00:06:36,598
Rob: En de brandweer, en zeker de politie, ervaren natuurlijk iedere dag een andere manier van communiceren met mensen in de samenleving.
103
00:06:36,598 --> 00:06:39,798
Rob: Dus de samenleving verhardt ook als het gevolg van polarisatie.
104
00:06:39,798 --> 00:06:47,558
Rob: En die polarisatie die ontstaat voor een belangrijk deel, bijvoorbeeld op sociale kanalen door influencers die daarvoor ingezet worden en door allerlei andere manieren.
105
00:06:47,558 --> 00:06:52,678
Rob: Dus op die manier komt het eigenlijk al heel snel, vooral juist ook in allerlei gemeenten terecht.
106
00:06:52,918 --> 00:06:54,598
Rob: En dan komt het ineens heel dichtbij.
107
00:06:54,758 --> 00:06:57,239
Joop: En wat doen jullie dan concreet met dat?
108
00:06:57,238 --> 00:07:00,999
Rob: Ja, we proberen een aantal sporen te bewandelen.
109
00:07:00,998 --> 00:07:03,319
Rob: Eén is een duidelijk internationaal spoor.
110
00:07:03,319 --> 00:07:18,279
Rob: Dus we zijn bijvoorbeeld in contact met allerlei Balkanlanden, maar ook met Oekraïne, Estland, Litauen, Noord-Macedonië, Scandinavische landen, om te kijken of we de kennis die zij meer aan de aan de oostkant van Europa opdoen op het gebied van desinformatie.
111
00:07:18,279 --> 00:07:28,519
Rob: En al veel verder zijn ze vaak dan wij dat zijn, of we die kunnen lenen en of we daar met elkaar over kunnen praten om te leren hoe wij daar in Nederland en in andere West-Europese landen mee om moeten gaan.
112
00:07:28,518 --> 00:07:29,799
Rob: Dat is eigenlijk één.
113
00:07:29,798 --> 00:07:33,079
Rob: Maar we willen ook leren van de technologieën die zij gebruiken.
114
00:07:33,079 --> 00:07:37,158
Rob: Als jij in Oekraïne nu verantwoordelijk bent voor het tegengaan van desinformatie.
115
00:07:37,158 --> 00:07:38,839
Rob: Het tegengaan daarvan.
116
00:07:38,839 --> 00:07:41,239
Rob: Dan gebruik je hele andere tactieken dan hier in Nederland.
117
00:07:41,238 --> 00:07:41,879
Rob: Zoals.
118
00:07:41,878 --> 00:07:53,079
Rob: Nou, ik sprak met een delegatie uit Oekraïne en die gaf aan dat Rusland bijvoorbeeld iedere ochtend of iedere dag deepfakes publiceert van Oekraïense soldaten die aan het front staan te huilen.
119
00:07:54,118 --> 00:07:56,678
Rob: En zelf dan uitspreken dat de Russen zo sterk zijn.
120
00:07:56,679 --> 00:08:00,519
Rob: Dat is typisch natuurlijk Russische propaganda.
121
00:08:02,598 --> 00:08:09,399
Rob: En wat zij moeten doen, is vervolgens campagnes voeren richting de burgers om dat onderuit te halen.
122
00:08:09,398 --> 00:08:11,718
Rob: En dat doen ze waanzinnig goed.
123
00:08:11,719 --> 00:08:15,158
Rob: Want zij hebben daar bijvoorbeeld samenwerkingen met influencers.
124
00:08:15,319 --> 00:08:23,399
Rob: Influencers, let wel, dat zijn dus door veel mensen worden influencers gezien als ook de slechte beïnvloeders.
125
00:08:23,558 --> 00:08:28,038
Rob: Maar zij zetten juist die beïnvloeders in om hun burgers mee te nemen.
126
00:08:28,279 --> 00:08:31,478
Rob: Laten ze dat zelf scripten, daar hebben ze wel enige regie op.
127
00:08:31,478 --> 00:08:35,639
Rob: Maar zij weten dus, zij pakken dingen heel anders aan dan wij dat op dit moment altijd.
128
00:08:35,878 --> 00:08:40,919
Joop: Maar hoe weeg je dan de betrouwbaarheid van de influencer ten opzichte van de propaganda?
129
00:08:41,399 --> 00:08:42,279
Joop: Dat lijkt me best lastig.
130
00:08:42,357 --> 00:08:42,998
Rob: Dat is het ook.
131
00:08:42,999 --> 00:08:48,519
Rob: Want je kijk, in alle eerlijkheid, wij leven nog steeds natuurlijk in een hele veilige wereld.
132
00:08:48,519 --> 00:08:51,879
Rob: Ook al zien we dat het om ons heen heel erg fout gaat.
133
00:08:51,878 --> 00:08:56,279
Rob: Maar als je in een oorlogssituatie zit, en dat is echt wezenlijk anders dan waar wij in zitten.
134
00:08:56,278 --> 00:08:59,879
Rob: De mensen in Oekraïne hebben de hele dag oorlog.
135
00:08:59,878 --> 00:09:05,319
Rob: En de hele dag wordt daar de bevolking beïnvloed door vooral Rusland.
136
00:09:05,319 --> 00:09:08,679
Rob: Dan neem je het, dan moet je gewoon keuzes maken.
137
00:09:08,679 --> 00:09:12,039
Rob: En dan moet je keihard tegen dat gevecht ingaan.
138
00:09:12,039 --> 00:09:13,159
Rob: Dan heb je geen andere keuze.
139
00:09:13,159 --> 00:09:21,559
Rob: En dat is een dus bijvoorbeeld de vraag die ik stelde: maar maakt het je dan uit welke technologie je gebruikt, zeggen ze, nee, dat maakt ons niks uit zolang het maar werkt.
140
00:09:21,559 --> 00:09:22,598
Rob: En dat snap ik.
141
00:09:22,598 --> 00:09:27,479
Rob: Want in een oorlogssituatie heb je nou helemaal niet alles voor het kiezen.
142
00:09:27,639 --> 00:09:28,919
Niels: Het is best wel een paradox dan.
143
00:09:29,159 --> 00:09:33,398
Niels: De technologie is zowel het probleem als ook deel van de oplossing.
144
00:09:33,399 --> 00:09:41,319
Rob: Ja, daar kan dus bij wijze van spreken de Amerikaanse technologie, waar wij liefst afscheid van zouden nemen en naar Europese alternatieven zouden overstappen.
145
00:09:41,318 --> 00:09:44,118
Rob: Die zeggen zij van dat snap ik, belangrijk.
146
00:09:44,118 --> 00:09:48,279
Rob: Maar als deze ons op dit moment het best helpt om de Russen te verslaan, dan gaan we dat doen.
147
00:09:48,439 --> 00:09:51,399
Rob: Daar kun je niks tegen tegen inbrengen, denk ik op dat moment.
148
00:09:51,399 --> 00:09:55,159
Niels: Als dat middel op dit moment het beste effect heeft, dan maak je die keuze, inderdaad.
149
00:09:55,159 --> 00:09:58,598
Niels: En dat is een andere ander gebied waar je die keuzes in moet maken, inderdaad.
150
00:09:59,238 --> 00:10:04,039
Joop: Je had het over allerlei samenwerkingsverbanden, ook met onderwijsinstellingen.
150
00:10:04,358 --> 00:10:08,079
Joop: Wordt er ook onderzoek gedaan dan naar desinformatie?
151
00:10:08,079 --> 00:10:08,638
Joop: Zeker.
152
00:10:05,639 --> 00:10:12,079
Rob: Ik noemde net de eerste pijler, is de internationale pijler.
153
00:10:12,159 --> 00:10:15,118
Rob: Daarnaast zijn we natuurlijk ook regionaal en landelijk bezig.
154
00:10:15,118 --> 00:10:19,279
Rob: We zijn bijvoorbeeld met de regionale publieke omroepen samen een project gestart.
155
00:10:19,278 --> 00:10:25,199
Rob: waarin we met de jongere groepen uit allerlei niet-randstedelijke gebieden willen praten.
156
00:10:25,199 --> 00:10:26,959
Rob: Dus denk aan West-Friesland.
157
00:10:26,959 --> 00:10:38,238
Rob: Denk ook wel aan Rotterdam-Zuid, maar ook het oosten van Nederland, omdat we weten dat veel jongeren daar nog verder van de wat wij nog betrouwbare nieuwspartijen noemen afstaan.
158
00:10:38,238 --> 00:10:47,039
Rob: En we zijn gewoon eens benieuwd om erachter te komen waarom dat zo is, maar ook om ze de vraag te stellen: maar wat willen jullie dan graag wel van nieuwspartijen.
159
00:10:47,038 --> 00:10:49,199
Rob: Omdat die vraag nog vaak wordt overgeslagen.
160
00:10:49,199 --> 00:10:51,199
Rob: Maar er wordt ontzettend veel onderzoek gedaan.
161
00:10:51,199 --> 00:11:01,919
Rob: Ik was laatst op uitnodiging van de NWO op een evenement hier in Utrecht op de dag dat die bom, of dat die bom, dat die ontploffing was in het centrum van Utrecht.
162
00:11:02,399 --> 00:11:03,439
Rob: En daar spraken we.
163
00:11:03,439 --> 00:11:10,719
Rob: En ik denk dat er bijna honderd wetenschappers aanwezig waren van universiteiten van Maastricht tot Groningen, Leuven, Amsterdam, noem het maar op.
164
00:11:10,719 --> 00:11:12,799
Rob: En die waren allemaal bezig met desinformatie.
165
00:11:12,799 --> 00:11:17,759
Rob: En dat komt ook omdat desinformatie is niet een onderwerp wat je maar wat je in één keer kunt tackelen.
166
00:11:17,758 --> 00:11:19,679
Rob: Het zit op allerlei lagen.
167
00:11:19,679 --> 00:11:24,079
Joop: En heb je voorbeelden van van de jongeren wat ze dan zeggen wat zij willen van.
168
00:11:24,159 --> 00:11:27,679
Rob: Nee, want we zijn bezig om dat onderzoek op te starten op dit moment.
169
00:11:27,679 --> 00:11:31,839
Rob: Maar waar het me om gaat, is dat het heel belangrijk dat er heel veel onderzoek gedaan wordt.
170
00:11:31,839 --> 00:11:36,079
Rob: En vervolgens is het denk ik ook belangrijk dat we gaan kijken en wat gaan we daar dan mee doen.
171
00:11:36,079 --> 00:11:40,238
Rob: Gelukkig wordt heel veel onderzoek ingezet om ook tot actie over te gaan.
172
00:11:40,238 --> 00:11:46,319
Rob: Maar een van de dingen die wij nu bijvoorbeeld in Nederland aan het doen zijn, is dat we aan het kijken zijn of we zoveel mogelijk van die onderzoekers kunnen bundelen.
173
00:11:46,319 --> 00:11:48,799
Rob: Om te kijken van waar zitten nou de overeenkomsten.
174
00:11:48,799 --> 00:11:51,759
Rob: Want het is natuurlijk super gaaf dat iedereen onderzoek doet.
175
00:11:51,758 --> 00:11:56,799
Rob: Maar een van de andere taken die wij hebben, is dat we vinden dat er moet ontsnipperd worden.
176
00:11:56,799 --> 00:12:01,758
Rob: Er zijn honderden partijen bezig met desinformatie of met autonomiteit van data.
177
00:12:01,758 --> 00:12:03,199
Rob: Maar ze doen het allemaal separaat.
178
00:12:03,199 --> 00:12:04,639
Rob: Iedereen heeft de juiste intenties.
179
00:12:04,638 --> 00:12:08,399
Rob: En een van de taken van TETA is om ervoor te zorgen dat we ze bij elkaar brengen.
180
00:12:08,399 --> 00:12:09,839
Rob: Zodat we samen gaan werken.
181
00:12:09,839 --> 00:12:15,358
Rob: En want als je het allemaal separaat blijft doen, dan snap je, dan kun je ook minder bereiken over het algemeen.
182
00:12:16,238 --> 00:12:18,719
Niels: Ik was even niet ziek, je noemde heel specifiek die lagen.
183
00:12:18,719 --> 00:12:20,559
Niels: Wat zijn die lagen waar je dan aan denkt?
184
00:12:20,559 --> 00:12:26,319
Rob: Nou, als je alleen al kijkt naar de type desinformatie die er zijn, er is heel veel desinformatie over klimaat.
185
00:12:26,319 --> 00:12:29,038
Rob: Er is heel veel desinformatie over politiek.
186
00:12:29,038 --> 00:12:31,679
Rob: Er is heel veel desinformatie over immigratie.
187
00:12:31,679 --> 00:12:36,158
Rob: En zo zijn er tientallen onderwerpen waar mensen iets van vinden.
188
00:12:36,319 --> 00:12:44,559
Joop: En achter al die onderwerpen zitten bewegingen van partijen die het kennelijk heel belangrijk willen voor het geluid komen nu allemaal kinderen hier binnen te lopen.
189
00:12:44,559 --> 00:12:45,519
Joop: Het is ook gewoon een museum.
190
00:12:45,518 --> 00:12:48,399
Joop: Dus die gaan hier een dagje met school leggen.
191
00:12:48,719 --> 00:12:50,239
Joop: Het is ook wel weer grappig toch?
192
00:12:50,319 --> 00:12:51,118
Joop: Ja, zeker.
193
00:12:51,278 --> 00:12:52,399
Joop: Je probeerde nog.
194
00:12:52,559 --> 00:12:54,079
Joop: Ze hadden het heel even.
195
00:12:54,398 --> 00:12:58,479
Joop: Ja ze stonden eerst heel erg geïnteresseerd te kijken en daarna begon ze toch alweer te kletsen.
196
00:12:58,719 --> 00:12:59,598
Joop: Ik snap het ook.
197
00:12:59,679 --> 00:13:02,559
Rob: Maar die worden hier trouwens ook op digitale geletterdheid geweest.
198
00:13:02,559 --> 00:13:03,839
Joop: Dus dat vind ik ook wel interessant.
199
00:13:04,159 --> 00:13:05,199
Niels: Heel mooi om te zien, inderdaad.
200
00:13:05,518 --> 00:13:09,358
Joop: Zetten jullie ook AI in tegen de desinformatie.
201
00:13:09,598 --> 00:13:12,079
Joop: Nou, dat is een hele mooie.
202
00:13:12,079 --> 00:13:15,598
Rob: Kijk, er is onderzoek uit mijn hoofd gedaan door de UU.
203
00:13:15,598 --> 00:13:21,358
Rob: En een van de dingen die je bijvoorbeeld met AI zou kunnen doen en waar zij ook tests mee gedaan hebben.
204
00:13:21,598 --> 00:13:24,239
Rob: Is dat je mensen die radicaliseren.
205
00:13:24,478 --> 00:13:26,399
Rob: Da kun je vaak heel moeilijk mee praten.
206
00:13:26,399 --> 00:13:31,199
Rob: Omdat wij als mensen vinden het heel moeilijk om dan objectief te blijven.
207
00:13:31,199 --> 00:13:33,439
Rob: Want je gaat toch snel een gevoel daarbij krijgen.
208
00:13:33,439 --> 00:13:39,039
Rob: En daar hebben ze tests mee gedaan door AI te trainen om die mensen continu vragen te stellen.
209
00:13:39,278 --> 00:13:42,799
Rob: Waardoor ze moesten gaan nadenken over hun eigen mening.
210
00:13:43,679 --> 00:13:44,399
Joop: Andersom is.
211
00:13:44,398 --> 00:13:45,358
Rob: Ze draaien het compleet uit.
212
00:13:46,159 --> 00:13:53,759
Rob: Dus dat is een super mooi voorbeeld van hoe je dus AI ook kunt inzetten om de gedachten van mensen die wel radicalen.
213
00:13:53,758 --> 00:13:55,839
Rob: Dan moeten ze natuurlijk wel dat gesprek willen aangaan.
214
00:13:56,319 --> 00:14:00,799
Rob: Maar je zou hem dus ook kunnen programmeren op als iemand een vraag stelt aan AI.
215
00:14:00,798 --> 00:14:05,519
Rob: Dat het niet per se altijd die servicegerichtheid heeft, maar dat er wel een bepaalde bias in zit.
216
00:14:05,679 --> 00:14:09,039
Rob: Er zijn ontzettend veel initiatieven natuurlijk die op dit moment daarover gaan.
217
00:14:09,038 --> 00:14:14,719
Joop: Dat zou voor ons als kenniswerkers ook wel eens fijn zijn dat er meer vragen worden gesteld en iets minder antwoorden worden gegeven, toch?
218
00:14:14,719 --> 00:14:15,039
Joop: Absoluut.
219
00:14:15,038 --> 00:14:17,039
Joop: Maar ja, jullie kunnen wel heel goed vragen stellen.
220
00:14:17,358 --> 00:14:18,238
Joop: Dankjewel.
221
00:14:18,238 --> 00:14:21,999
Joop: Ja, maar het is eigenlijk dus een kritische meedenker.
222
00:14:22,079 --> 00:14:23,758
Joop: Die jouw scherp houdt.
223
00:14:23,758 --> 00:14:25,999
Joop: Maar moet je wel de conversatie aan willen gaan, wat je zegt.
224
00:14:26,238 --> 00:14:26,719
Joop: Bijvoorbeeld.
225
00:14:26,719 --> 00:14:27,759
Joop: En ik vind het wel een link.
226
00:14:27,919 --> 00:14:30,559
Rob: Kijk, AI gaat natuurlijk nu alle kanten op.
227
00:14:30,959 --> 00:14:37,358
Rob: Vooral omdat ook hier de macht van over de platforms natuurlijk weer bij de grote partijen ligt.
228
00:14:37,358 --> 00:14:42,959
Rob: En daarom is het ook zo belangrijk dat er in Nederland ook initiatieven zijn om eigen AI te bouwen.
229
00:14:42,959 --> 00:14:44,399
Rob: Zouden we Europees kunnen maken.
230
00:14:44,399 --> 00:14:47,759
Rob: We zouden wat meer aandacht aan Mistral kunnen besteden.
231
00:14:47,758 --> 00:14:48,319
Rob: Ik ben daar.
232
00:14:48,478 --> 00:14:49,199
Joop: Het was wel heel mooi.
233
00:14:49,199 --> 00:14:52,439
Rob: Ik had gisteravond een ondernemersvereniging ALV.
234
00:14:52,998 --> 00:14:59,159
Rob: En ik had daar een tijd geleden een lezing gegeven over AI en hoe wij daar vanuit de regionale ontwikkelingsmaatschappij mee omgaan.
235
00:14:59,159 --> 00:15:02,999
Rob: En toen stak een van mijn medeleden de hand op is en zei.
236
00:15:02,998 --> 00:15:08,279
Rob: Nou, Rob, door jouw presentatie zijn wij dus gestopt met ChatGPT en zijn we overstapt op Mistral.
237
00:15:08,278 --> 00:15:12,439
Rob: Dat was in het begin niet zo goed als ChatGPT, maar we zijn er wel aan gewend.
238
00:15:12,758 --> 00:15:18,439
Rob: En overstappen op Europese alternatieven, ook voor AI kost denk ik even pijn.
239
00:15:18,679 --> 00:15:24,918
Rob: Maar ik ben er wel van overtuigd dat als we nu de keuze zouden maken om met z'n allen Mistral te gaan voeden in plaats van ChatGPT.
240
00:15:24,919 --> 00:15:26,358
Rob: Dan moet je ze opletten wat er gebeurt.
241
00:15:26,358 --> 00:15:27,959
Joop: Want dan gaat dat ook als een malle ontwikkelen.
242
00:15:28,118 --> 00:15:29,638
Joop: Heb je zelf ook die pijn genomen?
243
00:15:29,638 --> 00:15:37,719
Rob: Nee, maar we hebben bijvoorbeeld met de Rom net een onderzoek gedaan wat het zou kosten om over te stappen op alternatieve technologieën, waaronder AI.
244
00:15:38,039 --> 00:15:39,959
Rob: En ik test daar wel al mee.
245
00:15:41,079 --> 00:15:43,719
Rob: En dat gaat ons best wel financieel pijn doen.
246
00:15:45,478 --> 00:15:45,959
Joop: Welke zin?
247
00:15:46,118 --> 00:15:47,079
Joop: Dat het dan duur.
248
00:15:47,319 --> 00:15:48,119
Joop: Het kost gewoon geld.
249
00:15:48,118 --> 00:15:55,959
Rob: Kijk, wij zijn, wij draaien als middelgrote organisatie op Azure, op Microsoft op allerlei andere technologieën.
250
00:15:56,598 --> 00:16:02,118
Rob: En als je nu zou zeggen, God, wij willen in zijn geheel overstappen op alleen maar Europese alternatieven.
251
00:16:02,358 --> 00:16:06,358
Rob: Dan kost dat voor ons als bedrijf, dan moet je echt aan tonnen denken.
252
00:16:06,358 --> 00:16:08,439
Rob: Om dat überhaupt om die transitie te maken.
253
00:16:08,439 --> 00:16:14,358
Rob: Vooral waar je het over cloud hebt en over de basissystemen waar je als organisatie op draait.
254
00:16:14,358 --> 00:16:18,758
Rob: En daarbovenop komen nog je LLM's, je AI die je gebruikt.
255
00:16:18,758 --> 00:16:22,518
Rob: En daarnaast is het ook in je operatie daarna duurder.
256
00:16:22,518 --> 00:16:25,719
Rob: En toch overwegen wij om gradueel.
257
00:16:25,719 --> 00:16:29,719
Rob: We kunnen die kosten niet in één keer dragen om die overstap te gaan maken.
258
00:16:29,719 --> 00:16:31,159
Niels: Ja, je zegt gradueel.
259
00:16:31,159 --> 00:16:33,478
Niels: Want het is denk ik niet alleen de techniek.
260
00:16:33,959 --> 00:16:35,239
Niels: Tech, ja, dat is prima.
261
00:16:35,238 --> 00:16:36,598
Niels: Daar zouden we zo om kunnen slingeren.
262
00:16:36,598 --> 00:16:38,758
Niels: Maar dat is ook wat we aan gewend, wat is het gemak?
263
00:16:38,758 --> 00:16:39,079
Niels: Exact.
264
00:16:39,238 --> 00:16:46,279
Niels: Hoe komen we door tot hoe gaan we van gemak naar iets nieuws, waar we meer vertrouwen in kunnen bouwen.
265
00:16:46,919 --> 00:16:47,959
Niels: Hoe krijg je mensen zover?
266
00:16:48,038 --> 00:16:49,959
Niels: Zijn jullie daarmee bezig met het eten?
267
00:16:51,478 --> 00:16:54,919
Rob: Ja, die wat ik zo leuk vind van Teta is dat je ziet dat.
268
00:16:54,919 --> 00:16:57,719
Rob: Kijk, wij zitten eigenlijk aan de positieve kant van de ontwikkeling.
269
00:16:57,719 --> 00:17:02,358
Rob: Want wij werken samen met alleen maar partijen die bezig zijn om het beter te maken.
270
00:17:02,358 --> 00:17:06,199
Rob: Dus dat is wel lekker, als je 's avonds het nieuws kijkt, word je natuurlijk niet vrolijk van.
271
00:17:06,199 --> 00:17:10,759
Rob: En het is wel lekker om ook op onze manier een bijdrage te leveren aan die verandering.
272
00:17:11,079 --> 00:17:18,439
Rob: Maar de hele governance, dus het goed laten ontwikkelen van dit soort technologie, is de grootste uitdaging.
273
00:17:18,439 --> 00:17:26,038
Rob: Want stel je nou eens voor, er ontstaat, en er zijn prachtige, de Green PT bijvoorbeeld in de Utrechtse regio is een fantastisch voorbeeld.
274
00:17:26,038 --> 00:17:28,839
Rob: Stel nou, wij zeggen met z'n allen, dan gaan we daarvoor.
275
00:17:28,838 --> 00:17:31,879
Rob: En over drie jaar verkopen ze zichzelf aan een Amerikaanse partij.
276
00:17:31,879 --> 00:17:32,838
Rob: Kun je weer opnieuw beginnen.
277
00:17:33,079 --> 00:17:33,959
Joop: Kijk naar DigiD.
278
00:17:35,878 --> 00:17:40,358
Rob: Dus je wil ook als regionale ontwikkelingsmaatschappij bijvoorbeeld ook al.
279
00:17:40,358 --> 00:17:50,679
Rob: Als wij investeren in innovatieve start-ups die cruciaal zijn voor bepaalde maatschappelijke transities die we moeten doormaken, neem de energiesector of biotechnologie of de digitalisering AI.
280
00:17:50,919 --> 00:17:56,839
Rob: Dan wil je eigenlijk nu al van ze weten dat ze zichzelf niet gaan verkopen aan partijen waar we liever niet.
281
00:17:56,838 --> 00:18:00,598
Rob: Maar dat zijn allemaal dingen waar over het algemeen nog heel weinig naar gekeken wordt.
282
00:18:00,599 --> 00:18:02,758
Rob: En waar je uiteindelijk wel over na moet gaan denken.
283
00:18:02,838 --> 00:18:05,639
Joop: Denk je dat je dat op een gegeven moment gewoon contractueel vast gaat leggen.
284
00:18:05,959 --> 00:18:07,959
Joop: Dat zou een optie kunnen zijn.
285
00:18:08,599 --> 00:18:14,118
Rob: Ik vind dat heel moeilijk om daar nu al wat over te zeggen, A, omdat ik daar niet de enige in ben die daarover gaat.
286
00:18:14,119 --> 00:18:18,278
Rob: En je moet daar echt nog wel wat bruggen bouwen.
287
00:18:18,838 --> 00:18:24,278
Rob: Maar wat wij wel kunnen doen, is dat we zichtbaar maken wat voor alternatieven zijn.
288
00:18:24,278 --> 00:18:32,199
Rob: Dus vanuit Teta hebben we het plan opgevat, hebben jullie misschien gezien vorige week hebben we dat aangekondigd om die autonomy lab te gaan inrichten.
289
00:18:32,199 --> 00:18:33,719
Rob: Dat doen we samen met de Rom.
290
00:18:35,719 --> 00:18:38,678
Rob: Ja, dat is echt een vind ik een superleuk idee.
291
00:18:38,998 --> 00:18:45,478
Rob: Niet omdat ik er zelf bij mag helpen, maar omdat als je bij, als je veel met ondernemers praat, en nu ook.
292
00:18:45,639 --> 00:18:54,038
Rob: Echt de wereld qua wat we vinden van Europese technologie en Amerikaanse technologie is in een half jaar tijd compleet veranderd.
293
00:18:54,038 --> 00:18:58,758
Rob: Dus wij horen heel veel als wij vanuit Teta met partijen praten en ook vanuit de Rom.
294
00:18:58,758 --> 00:19:04,278
Rob: Dat ondernemers zeggen, ik wil best wel overstappen, maar dat is nogal ingewikkeld.
295
00:19:04,278 --> 00:19:05,879
Joop: Hoe moet ik dat nou doen?
296
00:19:05,878 --> 00:19:14,038
Rob: En er zijn super goede initiatieven, zoals Pieter van Bohemie, die natuurlijk cursussen aanbiedt, waar bedrijven kunnen leren hoe ze met een bepaalde technologie, hoe ze dat ook.
297
00:19:14,038 --> 00:19:15,238
Joop: Of Bits of Freedom.
298
00:19:15,238 --> 00:19:18,118
Rob: En zo zijn er een hele hoop andere partijen, dat vind ik super gaaf.
299
00:19:18,119 --> 00:19:26,879
Rob: Maar wij dachten, weet je wat we gaan doen, we gaan een fysieke locatie optuigen waar je de hele stack, de hele techstack, kunt analyseren van je eigen bedrijf.
300
00:19:26,998 --> 00:19:31,959
Rob: En waar je vervolgens een roadmap kunt bouwen om die helemaal naar EU-Tech over te gaan zetten.
301
00:19:32,119 --> 00:19:35,679
Rob: En het is ongelooflijk hoeveel tractie we hebben gekregen sinds we dat hebben aangekondigd.
303
00:19:35,478 --> 00:19:41,679
Rob: Dus we zijn nu over een paar weken gaan we met de eerste tien partijen aan tafel zitten om de tekening gezondheid.
302
00:19:41,838 --> 00:19:43,998
Rob: Om de tekening verder uit te werken.
303
00:19:43,998 --> 00:19:51,598
Rob: En dan willen we echt naar actie toe om ervoor te zorgen dat nog dit jaar echt een fysieke locatie is waar je met management teams naartoe kan om letterlijk die stap te gaan zetten.
304
00:19:51,599 --> 00:19:54,158
Rob: En volgens mij moeten we dat door heel Europa gaan doen.
305
00:19:54,159 --> 00:19:56,799
Joop: Dus we proberen hem ook zo op te zetten dat die schaalbaar is.
306
00:19:56,798 --> 00:20:00,878
Joop: Dat het een concept is wat je in ieder ander land in Europa ook kunt lanceren.
307
00:20:01,359 --> 00:20:06,719
Joop: Als je dat als je dat even terugneemt, naar jullie eigen manier nu van omzetten.
308
00:20:07,038 --> 00:20:14,399
Joop: Kan je iets vertellen van wat de grootste risico's of kansen zijn voor de eerste stap.
309
00:20:14,719 --> 00:20:15,998
Joop: Wat is jullie eerste stap?
310
00:20:15,998 --> 00:20:17,278
Joop: Waarom gaan jullie die nemen?
311
00:20:17,278 --> 00:20:18,158
Joop: En juist die.
312
00:20:18,159 --> 00:20:20,959
Joop: En met jullie bedoel je nu de ROM in dit geval.
313
00:20:21,919 --> 00:20:23,199
Joop: Dat loopt ook een beetje door elkaar.
314
00:20:24,159 --> 00:20:27,598
Joop: Nee, kijk, bij TETA, daar zijn we zijn Chert en ik degene die trek dus niet voor niks.
315
00:20:27,599 --> 00:20:30,878
Rob: Een alliantie, heel veel van het werk wordt samen en door anderen gedaan.
316
00:20:30,879 --> 00:20:34,398
Rob: En dat is maar goed ook, want wij kunnen met z'n tweeën natuurlijk ook niet alles doen.
317
00:20:34,558 --> 00:20:42,478
Rob: Maar bij de ROM, kijk, waar je dan tegenaan loopt, bijvoorbeeld, is het feit dat iedereen het zo verdomd lekker vindt om met ChatGPT te werken.
318
00:20:42,959 --> 00:20:44,879
Rob: En het is zo gemakkelijk allemaal.
319
00:20:44,879 --> 00:20:47,839
Rob: En daar zit denk ik een van de grootste uitdagingen.
320
00:20:47,838 --> 00:20:49,119
Rob: Dat is echt de menskant.
321
00:20:49,119 --> 00:20:53,038
Rob: Hoe gaan we met z'n allen ervoor zorgen dat we bereid zijn om te zeggen.
322
00:20:53,038 --> 00:20:55,278
Rob: En nu stoppen we ermee en we gaan het anders doen.
323
00:20:55,278 --> 00:20:57,919
Rob: En we weten dat het een beetje pijn gaat doen.
324
00:20:57,919 --> 00:20:59,199
Joop: Maar gaan het toch doen.
325
00:20:59,758 --> 00:21:01,358
Joop: En zolang je nog.
326
00:21:01,439 --> 00:21:04,798
Rob: En ik denk wel dat Trump ons heel erg helpt.
327
00:21:04,798 --> 00:21:07,358
Rob: Europa is eensgezinder dan ooit.
328
00:21:08,159 --> 00:21:15,598
Rob: Dus hoe vervelend het ook is dat hij de wereld aan het verstoren is, het gaat ons ook de kans bieden om nu door te pakken.
329
00:21:15,599 --> 00:21:23,118
Rob: En ik zie gelukkig heel veel partijen, zoals TETA, zoals de ROM, maar zoals heel veel andere partijen waarmee we samenwerken.
330
00:21:23,119 --> 00:21:28,078
Rob: Bell en Cad, om maar even goed voor een van de partijen waar we heel nauw mee samenwerken.
331
00:21:28,639 --> 00:21:33,199
Rob: Die gewoon zonder energie te verliezen hiermee doorgaan.
332
00:21:33,199 --> 00:21:34,558
Joop: En dat heb je gewoon nodig.
333
00:21:34,558 --> 00:21:36,399
Rob: En dan gaat iedereen uiteindelijk wel om.
334
00:21:36,399 --> 00:21:38,159
Niels: En dan kijken we naar de eerste stap.
335
00:21:38,159 --> 00:21:40,238
Niels: Ik ben wel benieuwd als we even vijf jaar vooruit kijken.
336
00:21:40,399 --> 00:21:41,838
Niels: Dit is in deze wereld heel erg moeilijk.
337
00:21:41,838 --> 00:21:47,118
Niels: Maar nog even van wanneer zou nou echt super trots zijn wat er bereikt is vanuit TETA.
338
00:21:47,119 --> 00:21:49,118
Niels: Over vijf jaar, wat is dat dan?
339
00:21:49,119 --> 00:21:56,238
Rob: Ja, kijk, onze grote doel is dat vertrouwen in Europa weer een asset wordt in plaats van een probleem.
340
00:21:56,558 --> 00:21:58,079
Rob: Daar doen we het allemaal voor.
341
00:21:58,079 --> 00:22:17,919
Rob: En dat betekent dat ik zou het super gaaf vinden als laten we beginnen bij de jongere doelgroep, als kinderen binnen nu een vijf jaar er vertrouwd en gewoon mee zijn om wanneer ze informatie zien om zich af te vragen waar het vandaan komt, wie het gemaakt heeft en hoe het bewerkt is bijvoorbeeld.
342
00:22:17,919 --> 00:22:18,638
Niels: Klinkt heel simpel.
343
00:22:18,798 --> 00:22:29,519
Rob: Dat zou, nou ja, er is natuurlijk al een besluit genomen dat vanaf 2030 digitale geletterd een vast onderdeel van het curriculum van alle middelbare en lage scholen wordt.
344
00:22:29,518 --> 00:22:31,518
Rob: Dus daar ben ik heel blij mee.
345
00:22:31,838 --> 00:22:33,679
Rob: Maar dat zou super gaaf zijn.
346
00:22:33,679 --> 00:22:44,398
Rob: En daarnaast zou het zou het heel belangrijk zijn, denk ik dat we vanuit de nationale technologiestrategie, het planwenning en dergelijke, waar veel geld dadelijk naar innovatie gaat.
347
00:22:44,399 --> 00:22:46,959
Joop: Ook een belangrijk deel van het geld gaan stoppen.
348
00:22:46,959 --> 00:22:51,518
Rob: In het mee helpen van Europese techbedrijven.
349
00:22:51,518 --> 00:22:55,998
Rob: Om financiering te kunnen krijgen om die harde groei die nodig is.
350
00:22:55,998 --> 00:23:01,198
Rob: Ook om al die behoeften die er straks gaat ontstaan om over te stappen, daadwerkelijk ook te kunnen leveren.
351
00:23:01,358 --> 00:23:03,358
Rob: Want Nextcloud klinkt super cool.
352
00:23:03,518 --> 00:23:07,838
Rob: Maar als er nu 100.000 bedrijven tegelijk op next, niet een probleem.
353
00:23:08,079 --> 00:23:16,559
Rob: Dus daar moet ook de, zal ik maar zeggen de EU en de landen zelf budgetten beschikbaar gaan stellen om ervoor te zorgen dat we kunnen opschalen.
354
00:23:16,558 --> 00:23:21,199
Rob: En misschien ook wel de ondernemers te helpen om die overstap te maken.
355
00:23:21,199 --> 00:23:27,199
Rob: Want voucher regelingen op te zetten, door subsidies te verlenen aan partijen die willen overstappen.
356
00:23:27,199 --> 00:23:29,118
Joop: Want ja, we zullen toch.
357
00:23:29,278 --> 00:23:31,758
Joop: En het besef is er wel in Europa, we zullen toch moeten doen.
358
00:23:31,758 --> 00:23:33,839
Joop: En dat van de kinderen vind ik wel wel mooi.
359
00:23:33,838 --> 00:23:41,439
Joop: Maar wat ik in mijn omgeving merk, is dat het soms omgedraaid qua geloof of niet geloven in iets.
360
00:23:41,439 --> 00:23:46,879
Joop: En dan kan ik misschien het beste illustreren dat ik woon heel dichtbij een recreatieplas.
361
00:23:47,199 --> 00:23:53,759
Joop: En daar zaten de afgelopen weken zaten daar in één keer flamingo's twee aan de aan de waterkant.
362
00:23:53,758 --> 00:23:55,199
Joop: We hebben foto's van gemaakt.
363
00:23:55,199 --> 00:23:56,638
Joop: Een vrouw had die rondgestuurd.
364
00:23:56,639 --> 00:23:58,719
Joop: En eigenlijk de eerste die reageerde, die zei.
365
00:23:58,719 --> 00:24:00,159
Joop: Ha, leuk met AI.
366
00:24:00,798 --> 00:24:05,598
Joop: Dus we hebben ook te maken met de andere kant van dus echte beelden.
367
00:24:05,599 --> 00:24:10,478
Joop: Die niet meer geloofd worden, omdat ze iets maar afwijken van wat jij zelf denkt.
368
00:24:11,199 --> 00:24:11,998
Joop: Ja, toch?
369
00:24:11,998 --> 00:24:15,679
Joop: Want ik had altijd gedacht, we gaan alles geloven wat nep is.
370
00:24:15,679 --> 00:24:17,598
Joop: Maar we gaan nu dus ook heel veel wantrouwen.
371
00:24:17,599 --> 00:24:18,638
Joop: Wat echt is.
372
00:24:19,758 --> 00:24:22,758
Rob: Dat zul je zelf denk ik ook stiekem al ervaren hier en daar.
375
00:24:23,558 --> 00:24:37,238
Rob: Als je nu alle beelden bekijkt die je lang ziet komen op verschillende kanalen, over de bombardementen die er nu in Iran plaatsvinden en de berichtgeving daarover, dan ga je denk ik vanzelf ook afvragen, wacht even, wacht even, waar komt dit vandaan.
373
00:24:37,238 --> 00:24:48,038
Rob: En ja, op het moment dat die flaming foto straks gepost wordt, maar er zit een watermerk in, waardoor je meteen kunt zien of die echt is of niet, dan ben je al een stuk verder.
374
00:24:48,038 --> 00:24:52,518
Rob: Dus er zullen ook technologieën ontwikkeld gaan en moeten worden die ons daarbij gaan helpen.
375
00:24:52,518 --> 00:24:53,878
Rob: Daar ontkomen we helaas niet aan.
376
00:24:53,879 --> 00:25:02,038
Rob: En dat heeft er gewoon mee te maken dat er helaas zoveel idioten op aarde zijn die proberen ons op een andere manier te beïnvloeden dat we dat nou eenmaal moeten doen met elkaar.
377
00:25:02,758 --> 00:25:05,238
Joop: En laten we laten we die handschoenen nam maar oppakken.
378
00:25:05,478 --> 00:25:11,798
Rob: En als mensen die wel het goede ermee voor hebben, het voortouw nemen om dat te regelen met elkaar.
379
00:25:11,798 --> 00:25:16,279
Niels: Stel, er zijn luisteraars, die zitten net een nieuwsbericht, die komt net op hun social media feed binnen.
380
00:25:16,278 --> 00:25:18,599
Niels: Wat voor stappen kunnen ze doen om het te controleren?
381
00:25:18,599 --> 00:25:22,679
Rob: Ja, kijk, dat kan ik niet zeggen.
382
00:25:22,679 --> 00:25:26,839
Rob: Omdat, kijk, iedereen kijkt op een andere manier naar informatie.
383
00:25:26,838 --> 00:25:30,278
Rob: En ik realiseer me heel goed dat ik een opleiding heb gehad.
384
00:25:30,278 --> 00:25:36,679
Rob: Dat ik daardoor, en dat ik nieuwsgierig ben en dat ik daardoor ook gesprekken met mijn kinderen aangaan over wat er allemaal gebeurt.
385
00:25:36,679 --> 00:25:38,518
Rob: En ze vragen mij ook papa is oorlog?
386
00:25:38,758 --> 00:25:40,518
Rob: Wanneer komt er hier oorlog?
387
00:25:40,838 --> 00:25:45,558
Rob: Maar er zijn ook heel veel gezinnen in in Nederland waar dat gesprek helemaal niet gevoerd wordt.
388
00:25:45,558 --> 00:25:49,158
Rob: Of omdat de ouders zichzelf geen raad weten met de informatie.
389
00:25:49,478 --> 00:25:53,719
Rob: Of om welke andere reden dat überhaupt het gesprek niet gevoerd wordt.
390
00:25:54,038 --> 00:25:56,358
Rob: Dus dat is een hele ingewikkelde vraag.
391
00:25:56,679 --> 00:26:06,439
Rob: In mijn droom is het zo dat misschien moeten we, laat ik het zo zeggen, misschien moeten we wel helemaal opnieuw beginnen met social media.
392
00:26:06,439 --> 00:26:12,119
Rob: Er zijn initiatieven daarvoor, zoals W, wat nu vanuit Scandinavië wordt opgezet.
393
00:26:12,119 --> 00:26:16,758
Rob: Maar in Nederland wordt ook gesproken over een eigen nieuwe social media.
394
00:26:16,758 --> 00:26:22,598
Rob: Die opgericht worden op basis van wat wij met z'n allen afspreken dat democratische waarden zijn.
395
00:26:22,599 --> 00:26:28,838
Rob: En dan zou het dus ook betekenen dat je de methodieken die je gebruikt ook zodanig inrichten.
396
00:26:28,838 --> 00:26:34,758
Rob: Dat de content altijd bijvoorbeeld van een geverifieerde bron, geverifieerde bron moet komen.
397
00:26:34,838 --> 00:26:39,558
Rob: Stel je nou eens voor dat we nu het besluit zouden nemen, ik begrijp overigens nog steeds niet waarom het niet genomen is.
398
00:26:39,558 --> 00:26:44,599
Rob: Dat iedereen die op een social medium begint, zichzelf moet identificeren met zijn paspoort.
399
00:26:44,838 --> 00:26:48,199
Joop: Ik denk dat we dan al 80% van de LN kwijt zouden zijn.
400
00:26:48,199 --> 00:26:51,158
Joop: Maar ik geloof dat juist voor Bits of Freedom daar juist weer tegen is.
401
00:26:51,639 --> 00:26:53,879
Joop: Dan hebben we het niet meer over het vrije internet.
402
00:26:54,038 --> 00:26:55,238
Joop: Ik ben het ook met je toch.
403
00:26:55,478 --> 00:26:57,798
Joop: Maar zoals het nu gaat, is ook geen op, denk ik.
404
00:26:57,798 --> 00:26:58,838
Rob: Met alle goede bedoelingen.
405
00:26:58,998 --> 00:27:02,919
Joop: Ik denk wel eens van, we vinden het uiteindelijk allemaal nog niet erg genoeg.
406
00:27:02,919 --> 00:27:05,158
Joop: Want anders zouden we er wel wat aan doen.
407
00:27:05,559 --> 00:27:07,478
Joop: De gains zijn te groot.
408
00:27:07,639 --> 00:27:09,318
Rob: Dat is het grote probleem op dit moment.
409
00:27:09,318 --> 00:27:12,118
Rob: Je krijgt te veel voor niks.
410
00:27:12,679 --> 00:27:17,878
Joop: En je moet het gevoel krijgen dat je iets aan het inleveren bent, voordat je de afstand van neemt.
411
00:27:17,879 --> 00:27:19,719
Niels: Ja, maar eigenlijk leveren al heel veel in.
412
00:27:19,719 --> 00:27:26,358
Niels: We leveren namelijk heel veel van onze data in, van eigenlijk onze persoonlijke gegevens, onze stroom, onze dagelijke activiteiten.
413
00:27:26,358 --> 00:27:27,959
Joop: Alleen dat wordt nog niet gevoeld.
414
00:27:28,038 --> 00:27:30,838
Niels: Nee, ik snap niet waarom wordt dat niet gevoeld.
415
00:27:31,079 --> 00:27:32,199
Joop: Snap je dat niet?
416
00:27:32,278 --> 00:27:35,238
Joop: Kijk, ja, jij ben jullie zijn natuurlijk met deze podcast bezig.
417
00:27:35,238 --> 00:27:38,518
Joop: Dus je bent daar met enige regelmaat over na aan het denken.
418
00:27:38,518 --> 00:27:42,199
Rob: Maar de gemiddelde Nederlander en de gemiddelde Europeaan denk daar geen seconde over na.
419
00:27:42,199 --> 00:27:45,398
Rob: Die typt gewoon de volgende vraag in en kijkt naar het antwoord.
420
00:27:45,399 --> 00:27:50,518
Rob: En welke partij daarachter zit, dat maakt niet zoveel uit als ze zelf maar blij zijn met het antwoord.
421
00:27:50,518 --> 00:27:57,318
Joop: En hoe gaat ze direct dan die gewone gewone burger wat merken van de initiatieven die jullie ontplooien met The European Trust Alliance.
422
00:27:57,318 --> 00:28:04,679
Rob: Ja, nou niet zozeer denk ik van wat wij met The European Trust Alliance ontplooien, maar wel wat de allianties erachter uiteindelijk gaan ontwikkelen.
423
00:28:05,079 --> 00:28:08,599
Rob: Dus kijk, een autonomy lab is gericht op bedrijfsleven.
424
00:28:08,599 --> 00:28:12,118
Rob: Dus daarmee helpen we bedrijven om die overstap te maken.
425
00:28:12,119 --> 00:28:17,798
Rob: Ik geloof er heilig in dat de bedrijven die dat gaan doen, ook hun personeel mee gaan nemen in die overstap.
426
00:28:17,798 --> 00:28:20,038
Rob: Da raak je denk ik al een hele belangrijke snaar.
427
00:28:20,038 --> 00:28:21,558
Rob: Want dat zijn gewoon burgers.
428
00:28:21,558 --> 00:28:29,719
Rob: En op het moment dat ze vanuit het bedrijf waar ze werken en de meeste mensen in Nederland werken, ook dit soort alternatieven zien, zullen ze zelf ook over gaan stappen.
429
00:28:30,038 --> 00:28:32,839
Rob: Dus daar zit voor mij een hele belangrijke schakel.
430
00:28:33,558 --> 00:28:38,199
Rob: Een schakel die denk ik autonoom gaat op het moment dat je vanuit het bedrijfsleven kunt beginnen daarmee.
431
00:28:38,199 --> 00:28:47,078
Rob: Daarnaast vind ik echt, en daar kunnen we denk ik heel veel leren van Scandinavische landen, maar ook van Balkanlanden, dat we moeten beginnen met het invoeren van campagnes.
432
00:28:47,079 --> 00:28:51,558
Rob: En dat klinkt misschien een beetje megalomaan, maar het informeren van mensen.
433
00:28:51,798 --> 00:28:54,278
Rob: Op wat is nou wat je ziet.
434
00:28:54,919 --> 00:29:01,079
Rob: Er zijn websites waar je dat al kunt checken, maar die hebben lang niet de funding gekregen om dat landelijk aan te pakken.
435
00:29:01,079 --> 00:29:07,518
Rob: Ik vind echt dat de overheid moet gaat nadenken over kunnen we niet iets via een kanaal, via influencers.
436
00:29:05,559 --> 00:29:09,518
Rob: Bankzittersachtige types.
440
00:29:10,159 --> 00:29:18,638
Rob: Wat denk ik groot bereik heeft, kunnen we niet met dat soort partijen gaan samenwerken, los van met de belangrijke nieuwspartijen.
437
00:29:18,639 --> 00:29:22,959
Rob: Om de mensen te informeren over waar lopen we nou met z'n allen tegenaan.
438
00:29:22,959 --> 00:29:24,798
Rob: Ik denk dat we daar gewoon mee moeten beginnen.
439
00:29:24,879 --> 00:29:29,679
Niels: Ik moest gelijk denken aan het programma Kassa, wat op de NPO wordt uitgezonden, inderdaad.
440
00:29:29,758 --> 00:29:35,119
Niels: Wat mensen informeert over is dit wel fair wat er gebeurt en dat soort zaken, eigenlijk over informatie.
441
00:29:35,119 --> 00:29:36,959
Niels: Ik ben blij dat het niet geschrapt is uit het budget.
442
00:29:36,959 --> 00:29:40,959
Niels: En dat ik dat wel doorgaan, ik ben blij dat dat soort nieuws eigenlijk gebracht wordt.
443
00:29:40,959 --> 00:29:43,679
Niels: Ik denk dat dat soort initiatieven nodig hebben, ook op de datavlak.
444
00:29:43,998 --> 00:29:44,559
Niels: Absoluut.
445
00:29:44,959 --> 00:29:46,398
Rob: Ja, en dat is.
446
00:29:46,959 --> 00:29:55,598
Rob: Kijk, een van de dingen: een van de interessante ontwikkelingen die er speelt binnen de media, moet je maar eens over nadenken, is we zien dus een bepaalde beweging.
447
00:29:55,599 --> 00:30:03,998
Rob: Mediapartijen, nieuwspartijen hebben steeds meer moeite om door hun voorkeur publiek relevant gevonden te worden.
448
00:30:04,318 --> 00:30:12,798
Rob: Tegelijkertijd zie je dus, dat geef ik even dat voorbeeld van die bankzitters, die jongens hebben tussen de een en de 3 miljoen kijkers per uitzending op YouTube.
449
00:30:12,798 --> 00:30:16,398
Rob: Daarnaast verkopen ze de Ziggo Dome in no time x-keer uit.
450
00:30:16,639 --> 00:30:18,399
Rob: Ik heb ze een mailtje gestuurd.
451
00:30:19,038 --> 00:30:22,558
Rob: kunnen we niet eens praten over hoe jullie tegen dit soort dingen aankijken.
452
00:30:22,558 --> 00:30:31,358
Rob: En ik denk dat we dat ook de media steeds meer goed aan zouden kunnen doen om eens met niet de usual suspects aan tafel te gaan zitten.
453
00:30:31,359 --> 00:30:35,118
Rob: En eens te gaan kijken, God, wat is media eigenlijk nu?
454
00:30:35,119 --> 00:30:37,038
Joop: Dat is namelijk ook technologie.
455
00:30:37,038 --> 00:30:38,638
Rob: En hoe zit dat dan in elkaar?
456
00:30:38,639 --> 00:30:43,998
Rob: En moeten we niet onszelf voor een deel opnieuw gaan uitvinden om die relevante rol wel te behouden.
457
00:30:43,998 --> 00:30:48,719
Rob: Want ik geloof er heilig in dat iedereen, ook jongeren.
458
00:30:48,719 --> 00:30:51,998
Rob: Het belangrijk vinden dat ze de juiste informatie kunnen krijgen.
459
00:30:51,998 --> 00:30:55,038
Rob: De vraag is, waar krijgen ze die en via welke kanaal.
460
00:30:56,078 --> 00:30:58,238
Rob: En op welke manier wordt dat ingericht.
461
00:30:58,238 --> 00:31:00,719
Rob: En daar zit denk ik nog een wereld te winnen.
462
00:31:00,719 --> 00:31:03,118
Rob: Maar ja, ik geef ze het maar te doen.
463
00:31:03,358 --> 00:31:09,759
Rob: Je zit met grote redacties, met allemaal mensen die keihard werken om het juiste naar voren te brengen, op de juiste manier.
464
00:31:09,758 --> 00:31:12,238
Rob: Ja, dat is ook moeilijk om dan die transitie door te maken.
465
00:31:12,238 --> 00:31:14,799
Rob: Maar ik denk wel dat we dat gesprek moeten voeren met elkaar.
466
00:31:14,798 --> 00:31:22,238
Joop: En wat vind je dan van zo zijn in Australië hebben ze nu de leeftijdsgrenzen verhoogd voor het gebruik van social media?
467
00:31:22,238 --> 00:31:23,199
Joop: Wat vind je daarvan?
468
00:31:23,199 --> 00:31:24,798
Rob: Ja, dat is een persoonlijke vraag.
469
00:31:24,959 --> 00:31:31,598
Rob: Die kan ik alleen beantwoorden als vader en niet als trekker van TETA of lid van management bij de ROM.
470
00:31:31,919 --> 00:31:34,159
Joop: Ik ben daar persoonlijke voorstander van.
471
00:31:34,159 --> 00:31:37,199
Rob: Maar een paar jaar geleden had ik dat nog anders gezien, denk ik.
472
00:31:37,199 --> 00:31:39,359
Rob: Totdat ik zelf die negatieve ervaring hebben.
473
00:31:39,359 --> 00:31:43,439
Rob: Ik denk dat de invloed van de algoritmes zo groot is.
474
00:31:43,439 --> 00:31:50,238
Rob: Dat je tijdlijnen met informatie voorschotelt aan mensen die daar nog helemaal niet klaar voor zijn.
475
00:31:50,238 --> 00:31:56,079
Rob: En vanuit dat perspectief vind ik het een juist besluit om het naar een bepaalde leeftijdsgrens toe te trekken.
476
00:31:56,079 --> 00:31:58,798
Rob: De vraag is wel of dat gaat lukken.
477
00:31:58,798 --> 00:32:04,478
Rob: Omdat toon je aan dat je te jong bent of oud genoeg.
478
00:32:04,879 --> 00:32:08,318
Rob: Maar ik vind het in ieder geval een hele mooie stap die gezet wordt.
479
00:32:08,318 --> 00:32:12,159
Joop: En ik zou willen dat we in Nederland ook iets soortgelijks doen.
480
00:32:12,478 --> 00:32:17,838
Rob: Maar leidt dan ook meteen helpt dan ook de ouders om goed te snappen wat er allemaal gebeurt binnen die sociale kanalen.
481
00:32:17,838 --> 00:32:20,238
Joop: Ja, want er is natuurlijk ook heel veel sociale druk.
482
00:32:20,238 --> 00:32:22,079
Joop: Er is ontzettend veel sociale druk.
483
00:32:22,719 --> 00:32:29,598
Rob: Die kinderen voor hun is het social medium niet alleen maar een informatiekanaal, maar daar lullen ze de hele dag over met elkaar.
484
00:32:31,518 --> 00:32:35,439
Rob: Dus je moet het helemaal weghalen, is lastig.
485
00:32:35,439 --> 00:32:39,598
Rob: Maar je zou wel kunnen zeggen, zoals hebben ze dat niet met suiker gedaan in Nieuw-Zeeland.
486
00:32:40,079 --> 00:32:40,959
Joop: Of roken.
487
00:32:41,278 --> 00:32:43,838
Joop: Vanaf een bepaalde generatie hebben wij geen rokers meer.
488
00:32:43,838 --> 00:32:46,319
Joop: Omdat als je nu geboren wordt, mag je nooit meer roken.
489
00:32:46,558 --> 00:32:48,078
Joop: Nou ja, weet ik veel.
490
00:32:48,079 --> 00:32:52,478
Rob: Soms vragen grote ernstige problemen, ook om rigoureuze keuzes.
491
00:32:52,719 --> 00:32:55,838
Joop: Dat vind ik eigenlijk best wel een hele mooie afsluiter.
492
00:32:56,318 --> 00:32:58,238
Joop: Grote vragen, grote rigoureuze keuzes.
493
00:32:58,238 --> 00:33:03,199
Joop: Dank je wel dat je inzicht hebt gegeven wat je bij TETA doet en de ROM.
494
00:33:03,919 --> 00:33:08,959
Joop: Wat zou je iemand die nu luistert willen meegeven, waar zouden ze vandaag mee kunnen starten?
495
00:33:09,278 --> 00:33:12,799
Joop: Om desinformatie in ieder geval te kunnen herkennen.
496
00:33:12,798 --> 00:33:15,998
Rob: Nou, het enige wat ik kan zeggen is: blijf kritisch.
497
00:33:15,998 --> 00:33:21,359
Rob: Want je mag jezelf, je mag jezelf afvragen of iets wat je ziet waar is of niet.
498
00:33:21,358 --> 00:33:24,799
Rob: En alleen al door die vraag aan jezelf te durven stellen, kom je dan heel eind.
499
00:33:24,798 --> 00:33:26,078
Joop: Kijk, dankjewel.
500
00:33:26,399 --> 00:33:27,599
Joop: Dankjewel voor de uitnodiging.
501
00:33:27,599 --> 00:33:29,038
Joop: Super, dankjewel Rob.
502
00:33:29,278 --> 00:33:31,919
Joop: Leuk dat je weer luisteren naar deze aflevering.
503
00:33:31,919 --> 00:33:34,719
Joop: Vergeet je niet te abonneren via je favoriete podcast.
504
00:33:35,038 --> 00:33:36,159
Joop: Dan mis je geen aflevering.
505
00:33:36,159 --> 00:33:36,998
Joop: Tot de volgende keer!
4
00:00:10,919 --> 00:00:15,599
Dit is een netwerk van universiteiten, gemeente en media partijen
5
00:00:15,599 --> 00:00:18,719
die samenwerken tegen desinformatie.
6
00:00:18,719 --> 00:00:20,719
Laat we luisteren naar Rob.
7
00:00:23,519 --> 00:00:27,199
Joop: Leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.
8
00:00:27,199 --> 00:00:32,238
Joop: En vandaag staan we echt midden in Museum Beeld en Geluid.
9
00:00:32,558 --> 00:00:34,878
Joop: Dus er kan het bijgeluid bij staan.
10
00:00:35,039 --> 00:00:36,398
Joop: Bij komen vandaag.
11
00:00:37,679 --> 00:00:38,558
Joop: Voor extra pret.
12
00:00:39,518 --> 00:00:41,759
Joop: Mijn naam, Joop Snijder, CTO Aigency.
13
00:00:41,758 --> 00:00:44,798
Niels: Mijn naam, Niels Naglé Data & AI, bij Info Support.
14
00:00:44,798 --> 00:00:50,318
Joop: En we hebben wel om gedacht.
15
00:00:50,639 --> 00:00:55,999
Niels: We hebben inderdaad iemand mooi in smoking en naast ons staan vandaag inderdaad, Rob van Beek.
16
00:00:55,999 --> 00:00:57,118
Niels: Welkom leuk dat je aansluit.
17
00:00:57,199 --> 00:00:59,758
Niels: Ik denk, mijn smoking komt niet zo vaak in de podcast.
18
00:01:00,158 --> 00:01:00,958
Joop: Hartstikke mooi.
19
00:01:00,959 --> 00:01:04,319
Joop: We zullen dadelijk even een foto maken, zouden we gewoon in de nieuwsbrief kunnen zetten.
20
00:01:04,479 --> 00:01:06,078
Niels: We hebben er geen camera bij, inderdaad.
21
00:01:06,318 --> 00:01:08,958
Joop: Ja Rob zou je even heel kort voor willen stellen.
22
00:01:08,958 --> 00:01:12,398
Joop: En waarom je eigenlijk hier bij een workshop zit.
23
00:01:12,398 --> 00:01:13,279
Joop: Want je bent genomineerd.
24
00:01:13,919 --> 00:01:14,479
Rob: Ja, zeker.
25
00:01:14,799 --> 00:01:16,078
Rob: Heel verrassend.
26
00:01:16,638 --> 00:01:18,798
Rob: Ik ben Rob van Beek, dat zeiden jullie al.
27
00:01:18,798 --> 00:01:21,039
Rob: Ik ben ik een beetje een dubbelfunctie.
28
00:01:21,039 --> 00:01:26,158
Rob: Mijn één rol is dat ik strategie ben bij de regionale ontwikkelingsmaatschappij in Utrecht.
29
00:01:27,279 --> 00:01:30,478
Rob: Als je daar meer over wil weten, dan komen we daar dadelijk vast op.
30
00:01:30,639 --> 00:01:37,278
Rob: En het tweede wat ik doe, en daar ben ik ook vandaag hier voor, is dat ik de trekker ben van de European Trust Alliance.
31
00:01:37,279 --> 00:01:48,878
Rob: En de European Trust Alliance is een zegt het al, een alliantie waarbij we eigenlijk proberen om Europese samenwerkingen op te zetten rondom vertrouwen in informatie, de autonomiteit van data.
32
00:01:48,879 --> 00:01:53,598
Rob: En ook het fatsoenlijk en tegen omgaan met nieuwe technologieën zoals AI.
33
00:01:53,838 --> 00:01:56,958
Rob: Die awards waar we vandaag zijn, die gaan daarover.
34
00:01:57,119 --> 00:02:01,918
Rob: En de jury vond het leuk om ons te nomineren en dat vinden wij natuurlijk hartstikke gaaf.
35
00:02:03,038 --> 00:02:05,438
Rob: Maar er zijn nog een hele hoop andere partijen.
36
00:02:05,438 --> 00:02:06,958
Rob: En daarom zijn we zo mooi vereerd.
37
00:02:06,959 --> 00:02:07,919
Rob: En ik vind het heel gaaf.
38
00:02:07,919 --> 00:02:11,598
Rob: Want je binnen en je weet nooit wie er allemaal willen, niet een smoking aan hebben.
39
00:02:11,598 --> 00:02:15,759
Rob: Maar het is echt heel mooi om te zien dat bijna iedereen er super mooi uitziet.
40
00:02:15,758 --> 00:02:19,518
Rob: En dat gewoon op een zonnige middag in je avondkleding.
41
00:02:19,919 --> 00:02:21,999
Rob: Dat is toch wel een beetje een vreemd gevoel.
42
00:02:21,999 --> 00:02:24,319
Joop: Humbert Tan die opende het hele verhaal.
43
00:02:24,318 --> 00:02:28,078
Joop: En die zei: ik kan me niet herinneren dat ik ooit op een woensdagmiddag in het smoking heb gezeten.
44
00:02:28,158 --> 00:02:28,878
Joop: Exact, ik ook niet.
45
00:02:29,038 --> 00:02:30,719
Joop: Ik sluit me daar helemaal bij aan.
46
00:02:30,878 --> 00:02:32,878
Joop: Maar we gaan het over iets heel serieus hebben.
47
00:02:32,878 --> 00:02:39,358
Joop: En even je zei de European.
48
00:02:39,519 --> 00:02:40,878
Joop: En je kort hem af met Theta.
49
00:02:41,038 --> 00:02:42,879
Joop: Theta, de Griekse letter T.
50
00:02:43,358 --> 00:02:44,078
Joop: Precies.
51
00:02:44,079 --> 00:02:46,799
Joop: Zo gaan we het vandaag denk ik te doen, dat is het koosnaam.
52
00:02:46,878 --> 00:02:47,358
Joop: Precies.
53
00:02:47,358 --> 00:02:50,478
Joop: En ik was wel benieuwd: kan je ons meenemen.
54
00:02:50,798 --> 00:02:57,119
Joop: Waar je voor het eerst te maken kreeg met desinformatie, maar dat je het echt voelde.
55
00:02:57,919 --> 00:03:01,999
Joop: Hier gaat iets mis met digitale informatie, met nep nieuws.
56
00:03:03,598 --> 00:03:05,758
Rob: Wij hebben stiekem zitten voorbespreken, natuurlijk.
57
00:03:05,759 --> 00:03:07,839
Joop: En jij raakt me nu meteen waar het echt over gaat.
58
00:03:07,839 --> 00:03:09,759
Rob: Nee, kijk, ik ben vader van drie pubers.
59
00:03:09,758 --> 00:03:15,359
Rob: En mijn pubers groeien allemaal op in een compleet andere wereld van informatie dan waar wij in opgegroeid zijn.
60
00:03:15,358 --> 00:03:20,479
Rob: Ik zeg maar wij, ik denk dat ik iets ouder ben dan jullie, maar ik ben daar in ieder geval heel anders in opgegroeid.
61
00:03:20,559 --> 00:03:27,519
Rob: En een van mijn kinderen is ook echt middelpunt geweest van de leugens die in social media kunt meemaken.
62
00:03:27,519 --> 00:03:35,279
Rob: Dus dan word je geconfronteerd als ouder met het feit dat er van alles gebeurt in al die kanalen, waar je zelf helemaal geen invloed op hebt.
63
00:03:35,839 --> 00:03:38,719
Rob: Gelukkig zit ik bij de ROM en de regionale ontwikkelingsmaatschappij.
64
00:03:38,798 --> 00:03:48,319
Rob: En in het kader daarvan waren we in Hilversum met een aantal partijen in gesprek over wat moet er nou hier waar we vandaag ook zijn op het mediapark in de toekomst allemaal gebeuren.
65
00:03:48,639 --> 00:03:51,198
Rob: En ik ben een merkenmens van oudsher.
66
00:03:51,198 --> 00:03:53,999
Rob: Dus ik probeer altijd gedachten daarover te formuleren.
67
00:03:53,999 --> 00:04:02,078
Rob: En ik zei zou het nou niet gaaf zijn als we hier op het mediapark een soort universiteit hebben die wereldwijd leading is op het gebied van desinformatie.
68
00:04:02,318 --> 00:04:05,519
Rob: Dat vond ik zelf een leuke gedacht, dus ik denk, ik spreek hem uit.
69
00:04:05,598 --> 00:04:09,199
Rob: En eigenlijk raakten we daar verder over aan de praat.
70
00:04:09,198 --> 00:04:18,878
Rob: En voor we het wisten, hadden we toch wel met een aantal partijen van Theta's opgericht door vijf initiatiefnemers, Beeld en Geluid waar we nu zijn, Universiteit Utrecht, Hogeschool Utrecht.
71
00:04:18,878 --> 00:04:20,319
Rob: De ROM zelf.
72
00:04:20,319 --> 00:04:24,799
Rob: En dan vergeet ik de vijfde dat is de gemeente Hilversum, natuurlijk.
73
00:04:24,799 --> 00:04:27,999
Rob: Want de gemeente Hilversum is een van onze grootste supporters.
74
00:04:27,999 --> 00:04:30,958
Rob: Gert van de top, de burgemeester is ook ambassadeur van Theta.
75
00:04:31,118 --> 00:04:36,798
Rob: En het is heel natuurlijk ook echt wel aan gelegen dat de media die hier zijn ook een toekomst heeft.
76
00:04:37,439 --> 00:04:39,038
Rob: Daar kom ik meteen weer even terug.
77
00:04:39,759 --> 00:04:43,918
Rob: Lang verhaal kort, we zijn een onderzoek gaan doen, we zijn met heel veel mensen gaan praten.
78
00:04:43,918 --> 00:04:47,918
Rob: Van als we nou zo'n universiteit willen oprichten, wat moet er dan allemaal zijn?
79
00:04:47,918 --> 00:04:51,279
Rob: En uiteindelijk is dan een alliantie geworden open.
80
00:04:51,598 --> 00:04:57,598
Rob: Organisatie, die op allerlei thema's probeert internationale en landelijke samenwerkingen op te zetten.
81
00:04:57,598 --> 00:04:59,438
Rob: En dat doen we op drie thema's.
82
00:04:59,679 --> 00:05:01,519
Rob: De eerste is nieuws en informatie.
83
00:05:02,079 --> 00:05:10,319
Rob: Hoe kunnen we ervoor zorgen dat onze kinderen laat ik het maar zo even zeggen, ook een toekomst in kunnen waarin ze nieuws en informatie nog op een vertrouwde manier kunnen consumeren.
84
00:05:10,319 --> 00:05:17,759
Rob: Dus dat ze bijvoorbeeld kunnen zien wat het vandaan komt, hoe het bewerkt is, wie de afzender is, of er een keurmerk in zit, allerlei van dat soort zaken.
85
00:05:17,759 --> 00:05:20,759
Rob: Het tweede thema is autonome data.
86
00:05:20,319 --> 00:05:23,799
Rob: En dat gaat er eigenlijk omdat, en dat is nu vrij actueel.
87
00:05:24,038 --> 00:05:30,438
Rob: Iedereen weet inmiddels wel dat er heel veel data van ons bij grote big tech bedrijven liggen, dat is best een kwalijke zaak.
88
00:05:30,598 --> 00:05:35,799
Rob: Als je ziet dat de macht op data eigenlijk bij vijf internationale clubs ligt, daar moeten we van af.
89
00:05:35,798 --> 00:05:36,998
Rob: En dat is een weeffout.
90
00:05:36,998 --> 00:05:46,999
Rob: En die is ontstaan doordat we met z'n allen heel erg in de tengels van al die grote sociale media en Google-achtige zaken zijn terecht gekomen.
91
00:05:47,478 --> 00:05:50,918
Joop: Als ik maar gewoon breken, want dit gaat echt best wel heel groot.
92
00:05:51,079 --> 00:05:53,238
Joop: Dan hebben de vijf big tech.
93
00:05:53,238 --> 00:05:56,438
Joop: Maar je zegt ook, maar de gemeente Hilversum stap je ook in.
94
00:05:57,399 --> 00:06:00,679
Joop: Hoe komt dat lokale dan bij elkaar bij zo'n groot vraagstuk?
95
00:06:00,679 --> 00:06:02,279
Rob: Ja, eigenlijk op allerlei manieren.
96
00:06:02,279 --> 00:06:05,719
Rob: Want als je stel, je bent de burgemeester van de gemeente Hilversum.
97
00:06:05,719 --> 00:06:10,598
Rob: Dan heb je niet alleen het een van de grootste mediaparken van Europa waar je over gaat.
98
00:06:10,918 --> 00:06:19,158
Rob: Waar journalistieke organisaties zitten, die bijvoorbeeld ervaren dat mensen het nieuws en de informatie die ze publiceren niet meer vertrouwen.
99
00:06:19,478 --> 00:06:20,759
Rob: Daar heb je wat mee te doen.
100
00:06:20,758 --> 00:06:24,199
Rob: Maar tegelijkertijd ben je ook verantwoordelijk voor de veiligheidsdriehoek.
101
00:06:24,199 --> 00:06:27,799
Rob: Dus op het moment dat er iets gebeurt, dan moet je met brandweer en politie in gesprek.
102
00:06:27,798 --> 00:06:36,598
Rob: En de brandweer, en zeker de politie, ervaren natuurlijk iedere dag een andere manier van communiceren met mensen in de samenleving.
103
00:06:36,598 --> 00:06:39,798
Rob: Dus de samenleving verhardt ook als het gevolg van polarisatie.
104
00:06:39,798 --> 00:06:47,558
Rob: En die polarisatie die ontstaat voor een belangrijk deel, bijvoorbeeld op sociale kanalen door influencers die daarvoor ingezet worden en door allerlei andere manieren.
105
00:06:47,558 --> 00:06:52,678
Rob: Dus op die manier komt het eigenlijk al heel snel, vooral juist ook in allerlei gemeenten terecht.
106
00:06:52,918 --> 00:06:54,598
Rob: En dan komt het ineens heel dichtbij.
107
00:06:54,758 --> 00:06:57,239
Joop: En wat doen jullie dan concreet met dat?
108
00:06:57,238 --> 00:07:00,999
Rob: Ja, we proberen een aantal sporen te bewandelen.
109
00:07:00,998 --> 00:07:03,319
Rob: Eén is een duidelijk internationaal spoor.
110
00:07:03,319 --> 00:07:18,279
Rob: Dus we zijn bijvoorbeeld in contact met allerlei Balkanlanden, maar ook met Oekraïne, Estland, Litauen, Noord-Macedonië, Scandinavische landen, om te kijken of we de kennis die zij meer aan de aan de oostkant van Europa opdoen op het gebied van desinformatie.
111
00:07:18,279 --> 00:07:28,519
Rob: En al veel verder zijn ze vaak dan wij dat zijn, of we die kunnen lenen en of we daar met elkaar over kunnen praten om te leren hoe wij daar in Nederland en in andere West-Europese landen mee om moeten gaan.
112
00:07:28,518 --> 00:07:29,799
Rob: Dat is eigenlijk één.
113
00:07:29,798 --> 00:07:33,079
Rob: Maar we willen ook leren van de technologieën die zij gebruiken.
114
00:07:33,079 --> 00:07:37,158
Rob: Als jij in Oekraïne nu verantwoordelijk bent voor het tegengaan van desinformatie.
115
00:07:37,158 --> 00:07:38,839
Rob: Het tegengaan daarvan.
116
00:07:38,839 --> 00:07:41,239
Rob: Dan gebruik je hele andere tactieken dan hier in Nederland.
117
00:07:41,238 --> 00:07:41,879
Rob: Zoals.
118
00:07:41,878 --> 00:07:53,079
Rob: Nou, ik sprak met een delegatie uit Oekraïne en die gaf aan dat Rusland bijvoorbeeld iedere ochtend of iedere dag deepfakes publiceert van Oekraïense soldaten die aan het front staan te huilen.
119
00:07:54,118 --> 00:07:56,678
Rob: En zelf dan uitspreken dat de Russen zo sterk zijn.
120
00:07:56,679 --> 00:08:00,519
Rob: Dat is typisch natuurlijk Russische propaganda.
121
00:08:02,598 --> 00:08:09,399
Rob: En wat zij moeten doen, is vervolgens campagnes voeren richting de burgers om dat onderuit te halen.
122
00:08:09,398 --> 00:08:11,718
Rob: En dat doen ze waanzinnig goed.
123
00:08:11,719 --> 00:08:15,158
Rob: Want zij hebben daar bijvoorbeeld samenwerkingen met influencers.
124
00:08:15,319 --> 00:08:23,399
Rob: Influencers, let wel, dat zijn dus door veel mensen worden influencers gezien als ook de slechte beïnvloeders.
125
00:08:23,558 --> 00:08:28,038
Rob: Maar zij zetten juist die beïnvloeders in om hun burgers mee te nemen.
126
00:08:28,279 --> 00:08:31,478
Rob: Laten ze dat zelf scripten, daar hebben ze wel enige regie op.
127
00:08:31,478 --> 00:08:35,639
Rob: Maar zij weten dus, zij pakken dingen heel anders aan dan wij dat op dit moment altijd.
128
00:08:35,878 --> 00:08:40,919
Joop: Maar hoe weeg je dan de betrouwbaarheid van de influencer ten opzichte van de propaganda?
129
00:08:41,399 --> 00:08:42,279
Joop: Dat lijkt me best lastig.
130
00:08:42,357 --> 00:08:42,998
Rob: Dat is het ook.
131
00:08:42,999 --> 00:08:48,519
Rob: Want je kijk, in alle eerlijkheid, wij leven nog steeds natuurlijk in een hele veilige wereld.
132
00:08:48,519 --> 00:08:51,879
Rob: Ook al zien we dat het om ons heen heel erg fout gaat.
133
00:08:51,878 --> 00:08:56,279
Rob: Maar als je in een oorlogssituatie zit, en dat is echt wezenlijk anders dan waar wij in zitten.
134
00:08:56,278 --> 00:08:59,879
Rob: De mensen in Oekraïne hebben de hele dag oorlog.
135
00:08:59,878 --> 00:09:05,319
Rob: En de hele dag wordt daar de bevolking beïnvloed door vooral Rusland.
136
00:09:05,319 --> 00:09:08,679
Rob: Dan neem je het, dan moet je gewoon keuzes maken.
137
00:09:08,679 --> 00:09:12,039
Rob: En dan moet je keihard tegen dat gevecht ingaan.
138
00:09:12,039 --> 00:09:13,159
Rob: Dan heb je geen andere keuze.
139
00:09:13,159 --> 00:09:21,559
Rob: En dat is een dus bijvoorbeeld de vraag die ik stelde: maar maakt het je dan uit welke technologie je gebruikt, zeggen ze, nee, dat maakt ons niks uit zolang het maar werkt.
140
00:09:21,559 --> 00:09:22,598
Rob: En dat snap ik.
141
00:09:22,598 --> 00:09:27,479
Rob: Want in een oorlogssituatie heb je nou helemaal niet alles voor het kiezen.
142
00:09:27,639 --> 00:09:28,919
Niels: Het is best wel een paradox dan.
143
00:09:29,159 --> 00:09:33,398
Niels: De technologie is zowel het probleem als ook deel van de oplossing.
144
00:09:33,399 --> 00:09:41,319
Rob: Ja, daar kan dus bij wijze van spreken de Amerikaanse technologie, waar wij liefst afscheid van zouden nemen en naar Europese alternatieven zouden overstappen.
145
00:09:41,318 --> 00:09:44,118
Rob: Die zeggen zij van dat snap ik, belangrijk.
146
00:09:44,118 --> 00:09:48,279
Rob: Maar als deze ons op dit moment het best helpt om de Russen te verslaan, dan gaan we dat doen.
147
00:09:48,439 --> 00:09:51,399
Rob: Daar kun je niks tegen tegen inbrengen, denk ik op dat moment.
148
00:09:51,399 --> 00:09:55,159
Niels: Als dat middel op dit moment het beste effect heeft, dan maak je die keuze, inderdaad.
149
00:09:55,159 --> 00:09:58,598
Niels: En dat is een andere ander gebied waar je die keuzes in moet maken, inderdaad.
150
00:09:59,238 --> 00:10:04,039
Joop: Je had het over allerlei samenwerkingsverbanden, ook met onderwijsinstellingen.
150
00:10:04,358 --> 00:10:08,079
Joop: Wordt er ook onderzoek gedaan dan naar desinformatie?
151
00:10:08,079 --> 00:10:08,638
Joop: Zeker.
152
00:10:05,639 --> 00:10:12,079
Rob: Ik noemde net de eerste pijler, is de internationale pijler.
153
00:10:12,159 --> 00:10:15,118
Rob: Daarnaast zijn we natuurlijk ook regionaal en landelijk bezig.
154
00:10:15,118 --> 00:10:19,279
Rob: We zijn bijvoorbeeld met de regionale publieke omroepen samen een project gestart.
155
00:10:19,278 --> 00:10:25,199
Rob: waarin we met de jongere groepen uit allerlei niet-randstedelijke gebieden willen praten.
156
00:10:25,199 --> 00:10:26,959
Rob: Dus denk aan West-Friesland.
157
00:10:26,959 --> 00:10:38,238
Rob: Denk ook wel aan Rotterdam-Zuid, maar ook het oosten van Nederland, omdat we weten dat veel jongeren daar nog verder van de wat wij nog betrouwbare nieuwspartijen noemen afstaan.
158
00:10:38,238 --> 00:10:47,039
Rob: En we zijn gewoon eens benieuwd om erachter te komen waarom dat zo is, maar ook om ze de vraag te stellen: maar wat willen jullie dan graag wel van nieuwspartijen.
159
00:10:47,038 --> 00:10:49,199
Rob: Omdat die vraag nog vaak wordt overgeslagen.
160
00:10:49,199 --> 00:10:51,199
Rob: Maar er wordt ontzettend veel onderzoek gedaan.
161
00:10:51,199 --> 00:11:01,919
Rob: Ik was laatst op uitnodiging van de NWO op een evenement hier in Utrecht op de dag dat die bom, of dat die bom, dat die ontploffing was in het centrum van Utrecht.
162
00:11:02,399 --> 00:11:03,439
Rob: En daar spraken we.
163
00:11:03,439 --> 00:11:10,719
Rob: En ik denk dat er bijna honderd wetenschappers aanwezig waren van universiteiten van Maastricht tot Groningen, Leuven, Amsterdam, noem het maar op.
164
00:11:10,719 --> 00:11:12,799
Rob: En die waren allemaal bezig met desinformatie.
165
00:11:12,799 --> 00:11:17,759
Rob: En dat komt ook omdat desinformatie is niet een onderwerp wat je maar wat je in één keer kunt tackelen.
166
00:11:17,758 --> 00:11:19,679
Rob: Het zit op allerlei lagen.
167
00:11:19,679 --> 00:11:24,079
Joop: En heb je voorbeelden van van de jongeren wat ze dan zeggen wat zij willen van.
168
00:11:24,159 --> 00:11:27,679
Rob: Nee, want we zijn bezig om dat onderzoek op te starten op dit moment.
169
00:11:27,679 --> 00:11:31,839
Rob: Maar waar het me om gaat, is dat het heel belangrijk dat er heel veel onderzoek gedaan wordt.
170
00:11:31,839 --> 00:11:36,079
Rob: En vervolgens is het denk ik ook belangrijk dat we gaan kijken en wat gaan we daar dan mee doen.
171
00:11:36,079 --> 00:11:40,238
Rob: Gelukkig wordt heel veel onderzoek ingezet om ook tot actie over te gaan.
172
00:11:40,238 --> 00:11:46,319
Rob: Maar een van de dingen die wij nu bijvoorbeeld in Nederland aan het doen zijn, is dat we aan het kijken zijn of we zoveel mogelijk van die onderzoekers kunnen bundelen.
173
00:11:46,319 --> 00:11:48,799
Rob: Om te kijken van waar zitten nou de overeenkomsten.
174
00:11:48,799 --> 00:11:51,759
Rob: Want het is natuurlijk super gaaf dat iedereen onderzoek doet.
175
00:11:51,758 --> 00:11:56,799
Rob: Maar een van de andere taken die wij hebben, is dat we vinden dat er moet ontsnipperd worden.
176
00:11:56,799 --> 00:12:01,758
Rob: Er zijn honderden partijen bezig met desinformatie of met autonomiteit van data.
177
00:12:01,758 --> 00:12:03,199
Rob: Maar ze doen het allemaal separaat.
178
00:12:03,199 --> 00:12:04,639
Rob: Iedereen heeft de juiste intenties.
179
00:12:04,638 --> 00:12:08,399
Rob: En een van de taken van TETA is om ervoor te zorgen dat we ze bij elkaar brengen.
180
00:12:08,399 --> 00:12:09,839
Rob: Zodat we samen gaan werken.
181
00:12:09,839 --> 00:12:15,358
Rob: En want als je het allemaal separaat blijft doen, dan snap je, dan kun je ook minder bereiken over het algemeen.
182
00:12:16,238 --> 00:12:18,719
Niels: Ik was even niet ziek, je noemde heel specifiek die lagen.
183
00:12:18,719 --> 00:12:20,559
Niels: Wat zijn die lagen waar je dan aan denkt?
184
00:12:20,559 --> 00:12:26,319
Rob: Nou, als je alleen al kijkt naar de type desinformatie die er zijn, er is heel veel desinformatie over klimaat.
185
00:12:26,319 --> 00:12:29,038
Rob: Er is heel veel desinformatie over politiek.
186
00:12:29,038 --> 00:12:31,679
Rob: Er is heel veel desinformatie over immigratie.
187
00:12:31,679 --> 00:12:36,158
Rob: En zo zijn er tientallen onderwerpen waar mensen iets van vinden.
188
00:12:36,319 --> 00:12:44,559
Joop: En achter al die onderwerpen zitten bewegingen van partijen die het kennelijk heel belangrijk willen voor het geluid komen nu allemaal kinderen hier binnen te lopen.
189
00:12:44,559 --> 00:12:45,519
Joop: Het is ook gewoon een museum.
190
00:12:45,518 --> 00:12:48,399
Joop: Dus die gaan hier een dagje met school leggen.
191
00:12:48,719 --> 00:12:50,239
Joop: Het is ook wel weer grappig toch?
192
00:12:50,319 --> 00:12:51,118
Joop: Ja, zeker.
193
00:12:51,278 --> 00:12:52,399
Joop: Je probeerde nog.
194
00:12:52,559 --> 00:12:54,079
Joop: Ze hadden het heel even.
195
00:12:54,398 --> 00:12:58,479
Joop: Ja ze stonden eerst heel erg geïnteresseerd te kijken en daarna begon ze toch alweer te kletsen.
196
00:12:58,719 --> 00:12:59,598
Joop: Ik snap het ook.
197
00:12:59,679 --> 00:13:02,559
Rob: Maar die worden hier trouwens ook op digitale geletterdheid geweest.
198
00:13:02,559 --> 00:13:03,839
Joop: Dus dat vind ik ook wel interessant.
199
00:13:04,159 --> 00:13:05,199
Niels: Heel mooi om te zien, inderdaad.
200
00:13:05,518 --> 00:13:09,358
Joop: Zetten jullie ook AI in tegen de desinformatie.
201
00:13:09,598 --> 00:13:12,079
Joop: Nou, dat is een hele mooie.
202
00:13:12,079 --> 00:13:15,598
Rob: Kijk, er is onderzoek uit mijn hoofd gedaan door de UU.
203
00:13:15,598 --> 00:13:21,358
Rob: En een van de dingen die je bijvoorbeeld met AI zou kunnen doen en waar zij ook tests mee gedaan hebben.
204
00:13:21,598 --> 00:13:24,239
Rob: Is dat je mensen die radicaliseren.
205
00:13:24,478 --> 00:13:26,399
Rob: Da kun je vaak heel moeilijk mee praten.
206
00:13:26,399 --> 00:13:31,199
Rob: Omdat wij als mensen vinden het heel moeilijk om dan objectief te blijven.
207
00:13:31,199 --> 00:13:33,439
Rob: Want je gaat toch snel een gevoel daarbij krijgen.
208
00:13:33,439 --> 00:13:39,039
Rob: En daar hebben ze tests mee gedaan door AI te trainen om die mensen continu vragen te stellen.
209
00:13:39,278 --> 00:13:42,799
Rob: Waardoor ze moesten gaan nadenken over hun eigen mening.
210
00:13:43,679 --> 00:13:44,399
Joop: Andersom is.
211
00:13:44,398 --> 00:13:45,358
Rob: Ze draaien het compleet uit.
212
00:13:46,159 --> 00:13:53,759
Rob: Dus dat is een super mooi voorbeeld van hoe je dus AI ook kunt inzetten om de gedachten van mensen die wel radicalen.
213
00:13:53,758 --> 00:13:55,839
Rob: Dan moeten ze natuurlijk wel dat gesprek willen aangaan.
214
00:13:56,319 --> 00:14:00,799
Rob: Maar je zou hem dus ook kunnen programmeren op als iemand een vraag stelt aan AI.
215
00:14:00,798 --> 00:14:05,519
Rob: Dat het niet per se altijd die servicegerichtheid heeft, maar dat er wel een bepaalde bias in zit.
216
00:14:05,679 --> 00:14:09,039
Rob: Er zijn ontzettend veel initiatieven natuurlijk die op dit moment daarover gaan.
217
00:14:09,038 --> 00:14:14,719
Joop: Dat zou voor ons als kenniswerkers ook wel eens fijn zijn dat er meer vragen worden gesteld en iets minder antwoorden worden gegeven, toch?
218
00:14:14,719 --> 00:14:15,039
Joop: Absoluut.
219
00:14:15,038 --> 00:14:17,039
Joop: Maar ja, jullie kunnen wel heel goed vragen stellen.
220
00:14:17,358 --> 00:14:18,238
Joop: Dankjewel.
221
00:14:18,238 --> 00:14:21,999
Joop: Ja, maar het is eigenlijk dus een kritische meedenker.
222
00:14:22,079 --> 00:14:23,758
Joop: Die jouw scherp houdt.
223
00:14:23,758 --> 00:14:25,999
Joop: Maar moet je wel de conversatie aan willen gaan, wat je zegt.
224
00:14:26,238 --> 00:14:26,719
Joop: Bijvoorbeeld.
225
00:14:26,719 --> 00:14:27,759
Joop: En ik vind het wel een link.
226
00:14:27,919 --> 00:14:30,559
Rob: Kijk, AI gaat natuurlijk nu alle kanten op.
227
00:14:30,959 --> 00:14:37,358
Rob: Vooral omdat ook hier de macht van over de platforms natuurlijk weer bij de grote partijen ligt.
228
00:14:37,358 --> 00:14:42,959
Rob: En daarom is het ook zo belangrijk dat er in Nederland ook initiatieven zijn om eigen AI te bouwen.
229
00:14:42,959 --> 00:14:44,399
Rob: Zouden we Europees kunnen maken.
230
00:14:44,399 --> 00:14:47,759
Rob: We zouden wat meer aandacht aan Mistral kunnen besteden.
231
00:14:47,758 --> 00:14:48,319
Rob: Ik ben daar.
232
00:14:48,478 --> 00:14:49,199
Joop: Het was wel heel mooi.
233
00:14:49,199 --> 00:14:52,439
Rob: Ik had gisteravond een ondernemersvereniging ALV.
234
00:14:52,998 --> 00:14:59,159
Rob: En ik had daar een tijd geleden een lezing gegeven over AI en hoe wij daar vanuit de regionale ontwikkelingsmaatschappij mee omgaan.
235
00:14:59,159 --> 00:15:02,999
Rob: En toen stak een van mijn medeleden de hand op is en zei.
236
00:15:02,998 --> 00:15:08,279
Rob: Nou, Rob, door jouw presentatie zijn wij dus gestopt met ChatGPT en zijn we overstapt op Mistral.
237
00:15:08,278 --> 00:15:12,439
Rob: Dat was in het begin niet zo goed als ChatGPT, maar we zijn er wel aan gewend.
238
00:15:12,758 --> 00:15:18,439
Rob: En overstappen op Europese alternatieven, ook voor AI kost denk ik even pijn.
239
00:15:18,679 --> 00:15:24,918
Rob: Maar ik ben er wel van overtuigd dat als we nu de keuze zouden maken om met z'n allen Mistral te gaan voeden in plaats van ChatGPT.
240
00:15:24,919 --> 00:15:26,358
Rob: Dan moet je ze opletten wat er gebeurt.
241
00:15:26,358 --> 00:15:27,959
Joop: Want dan gaat dat ook als een malle ontwikkelen.
242
00:15:28,118 --> 00:15:29,638
Joop: Heb je zelf ook die pijn genomen?
243
00:15:29,638 --> 00:15:37,719
Rob: Nee, maar we hebben bijvoorbeeld met de Rom net een onderzoek gedaan wat het zou kosten om over te stappen op alternatieve technologieën, waaronder AI.
244
00:15:38,039 --> 00:15:39,959
Rob: En ik test daar wel al mee.
245
00:15:41,079 --> 00:15:43,719
Rob: En dat gaat ons best wel financieel pijn doen.
246
00:15:45,478 --> 00:15:45,959
Joop: Welke zin?
247
00:15:46,118 --> 00:15:47,079
Joop: Dat het dan duur.
248
00:15:47,319 --> 00:15:48,119
Joop: Het kost gewoon geld.
249
00:15:48,118 --> 00:15:55,959
Rob: Kijk, wij zijn, wij draaien als middelgrote organisatie op Azure, op Microsoft op allerlei andere technologieën.
250
00:15:56,598 --> 00:16:02,118
Rob: En als je nu zou zeggen, God, wij willen in zijn geheel overstappen op alleen maar Europese alternatieven.
251
00:16:02,358 --> 00:16:06,358
Rob: Dan kost dat voor ons als bedrijf, dan moet je echt aan tonnen denken.
252
00:16:06,358 --> 00:16:08,439
Rob: Om dat überhaupt om die transitie te maken.
253
00:16:08,439 --> 00:16:14,358
Rob: Vooral waar je het over cloud hebt en over de basissystemen waar je als organisatie op draait.
254
00:16:14,358 --> 00:16:18,758
Rob: En daarbovenop komen nog je LLM's, je AI die je gebruikt.
255
00:16:18,758 --> 00:16:22,518
Rob: En daarnaast is het ook in je operatie daarna duurder.
256
00:16:22,518 --> 00:16:25,719
Rob: En toch overwegen wij om gradueel.
257
00:16:25,719 --> 00:16:29,719
Rob: We kunnen die kosten niet in één keer dragen om die overstap te gaan maken.
258
00:16:29,719 --> 00:16:31,159
Niels: Ja, je zegt gradueel.
259
00:16:31,159 --> 00:16:33,478
Niels: Want het is denk ik niet alleen de techniek.
260
00:16:33,959 --> 00:16:35,239
Niels: Tech, ja, dat is prima.
261
00:16:35,238 --> 00:16:36,598
Niels: Daar zouden we zo om kunnen slingeren.
262
00:16:36,598 --> 00:16:38,758
Niels: Maar dat is ook wat we aan gewend, wat is het gemak?
263
00:16:38,758 --> 00:16:39,079
Niels: Exact.
264
00:16:39,238 --> 00:16:46,279
Niels: Hoe komen we door tot hoe gaan we van gemak naar iets nieuws, waar we meer vertrouwen in kunnen bouwen.
265
00:16:46,919 --> 00:16:47,959
Niels: Hoe krijg je mensen zover?
266
00:16:48,038 --> 00:16:49,959
Niels: Zijn jullie daarmee bezig met het eten?
267
00:16:51,478 --> 00:16:54,919
Rob: Ja, die wat ik zo leuk vind van Teta is dat je ziet dat.
268
00:16:54,919 --> 00:16:57,719
Rob: Kijk, wij zitten eigenlijk aan de positieve kant van de ontwikkeling.
269
00:16:57,719 --> 00:17:02,358
Rob: Want wij werken samen met alleen maar partijen die bezig zijn om het beter te maken.
270
00:17:02,358 --> 00:17:06,199
Rob: Dus dat is wel lekker, als je 's avonds het nieuws kijkt, word je natuurlijk niet vrolijk van.
271
00:17:06,199 --> 00:17:10,759
Rob: En het is wel lekker om ook op onze manier een bijdrage te leveren aan die verandering.
272
00:17:11,079 --> 00:17:18,439
Rob: Maar de hele governance, dus het goed laten ontwikkelen van dit soort technologie, is de grootste uitdaging.
273
00:17:18,439 --> 00:17:26,038
Rob: Want stel je nou eens voor, er ontstaat, en er zijn prachtige, de Green PT bijvoorbeeld in de Utrechtse regio is een fantastisch voorbeeld.
274
00:17:26,038 --> 00:17:28,839
Rob: Stel nou, wij zeggen met z'n allen, dan gaan we daarvoor.
275
00:17:28,838 --> 00:17:31,879
Rob: En over drie jaar verkopen ze zichzelf aan een Amerikaanse partij.
276
00:17:31,879 --> 00:17:32,838
Rob: Kun je weer opnieuw beginnen.
277
00:17:33,079 --> 00:17:33,959
Joop: Kijk naar DigiD.
278
00:17:35,878 --> 00:17:40,358
Rob: Dus je wil ook als regionale ontwikkelingsmaatschappij bijvoorbeeld ook al.
279
00:17:40,358 --> 00:17:50,679
Rob: Als wij investeren in innovatieve start-ups die cruciaal zijn voor bepaalde maatschappelijke transities die we moeten doormaken, neem de energiesector of biotechnologie of de digitalisering AI.
280
00:17:50,919 --> 00:17:56,839
Rob: Dan wil je eigenlijk nu al van ze weten dat ze zichzelf niet gaan verkopen aan partijen waar we liever niet.
281
00:17:56,838 --> 00:18:00,598
Rob: Maar dat zijn allemaal dingen waar over het algemeen nog heel weinig naar gekeken wordt.
282
00:18:00,599 --> 00:18:02,758
Rob: En waar je uiteindelijk wel over na moet gaan denken.
283
00:18:02,838 --> 00:18:05,639
Joop: Denk je dat je dat op een gegeven moment gewoon contractueel vast gaat leggen.
284
00:18:05,959 --> 00:18:07,959
Joop: Dat zou een optie kunnen zijn.
285
00:18:08,599 --> 00:18:14,118
Rob: Ik vind dat heel moeilijk om daar nu al wat over te zeggen, A, omdat ik daar niet de enige in ben die daarover gaat.
286
00:18:14,119 --> 00:18:18,278
Rob: En je moet daar echt nog wel wat bruggen bouwen.
287
00:18:18,838 --> 00:18:24,278
Rob: Maar wat wij wel kunnen doen, is dat we zichtbaar maken wat voor alternatieven zijn.
288
00:18:24,278 --> 00:18:32,199
Rob: Dus vanuit Teta hebben we het plan opgevat, hebben jullie misschien gezien vorige week hebben we dat aangekondigd om die autonomy lab te gaan inrichten.
289
00:18:32,199 --> 00:18:33,719
Rob: Dat doen we samen met de Rom.
290
00:18:35,719 --> 00:18:38,678
Rob: Ja, dat is echt een vind ik een superleuk idee.
291
00:18:38,998 --> 00:18:45,478
Rob: Niet omdat ik er zelf bij mag helpen, maar omdat als je bij, als je veel met ondernemers praat, en nu ook.
292
00:18:45,639 --> 00:18:54,038
Rob: Echt de wereld qua wat we vinden van Europese technologie en Amerikaanse technologie is in een half jaar tijd compleet veranderd.
293
00:18:54,038 --> 00:18:58,758
Rob: Dus wij horen heel veel als wij vanuit Teta met partijen praten en ook vanuit de Rom.
294
00:18:58,758 --> 00:19:04,278
Rob: Dat ondernemers zeggen, ik wil best wel overstappen, maar dat is nogal ingewikkeld.
295
00:19:04,278 --> 00:19:05,879
Joop: Hoe moet ik dat nou doen?
296
00:19:05,878 --> 00:19:14,038
Rob: En er zijn super goede initiatieven, zoals Pieter van Bohemie, die natuurlijk cursussen aanbiedt, waar bedrijven kunnen leren hoe ze met een bepaalde technologie, hoe ze dat ook.
297
00:19:14,038 --> 00:19:15,238
Joop: Of Bits of Freedom.
298
00:19:15,238 --> 00:19:18,118
Rob: En zo zijn er een hele hoop andere partijen, dat vind ik super gaaf.
299
00:19:18,119 --> 00:19:26,879
Rob: Maar wij dachten, weet je wat we gaan doen, we gaan een fysieke locatie optuigen waar je de hele stack, de hele techstack, kunt analyseren van je eigen bedrijf.
300
00:19:26,998 --> 00:19:31,959
Rob: En waar je vervolgens een roadmap kunt bouwen om die helemaal naar EU-Tech over te gaan zetten.
301
00:19:32,119 --> 00:19:35,679
Rob: En het is ongelooflijk hoeveel tractie we hebben gekregen sinds we dat hebben aangekondigd.
303
00:19:35,478 --> 00:19:41,679
Rob: Dus we zijn nu over een paar weken gaan we met de eerste tien partijen aan tafel zitten om de tekening gezondheid.
302
00:19:41,838 --> 00:19:43,998
Rob: Om de tekening verder uit te werken.
303
00:19:43,998 --> 00:19:51,598
Rob: En dan willen we echt naar actie toe om ervoor te zorgen dat nog dit jaar echt een fysieke locatie is waar je met management teams naartoe kan om letterlijk die stap te gaan zetten.
304
00:19:51,599 --> 00:19:54,158
Rob: En volgens mij moeten we dat door heel Europa gaan doen.
305
00:19:54,159 --> 00:19:56,799
Joop: Dus we proberen hem ook zo op te zetten dat die schaalbaar is.
306
00:19:56,798 --> 00:20:00,878
Joop: Dat het een concept is wat je in ieder ander land in Europa ook kunt lanceren.
307
00:20:01,359 --> 00:20:06,719
Joop: Als je dat als je dat even terugneemt, naar jullie eigen manier nu van omzetten.
308
00:20:07,038 --> 00:20:14,399
Joop: Kan je iets vertellen van wat de grootste risico's of kansen zijn voor de eerste stap.
309
00:20:14,719 --> 00:20:15,998
Joop: Wat is jullie eerste stap?
310
00:20:15,998 --> 00:20:17,278
Joop: Waarom gaan jullie die nemen?
311
00:20:17,278 --> 00:20:18,158
Joop: En juist die.
312
00:20:18,159 --> 00:20:20,959
Joop: En met jullie bedoel je nu de ROM in dit geval.
313
00:20:21,919 --> 00:20:23,199
Joop: Dat loopt ook een beetje door elkaar.
314
00:20:24,159 --> 00:20:27,598
Joop: Nee, kijk, bij TETA, daar zijn we zijn Chert en ik degene die trek dus niet voor niks.
315
00:20:27,599 --> 00:20:30,878
Rob: Een alliantie, heel veel van het werk wordt samen en door anderen gedaan.
316
00:20:30,879 --> 00:20:34,398
Rob: En dat is maar goed ook, want wij kunnen met z'n tweeën natuurlijk ook niet alles doen.
317
00:20:34,558 --> 00:20:42,478
Rob: Maar bij de ROM, kijk, waar je dan tegenaan loopt, bijvoorbeeld, is het feit dat iedereen het zo verdomd lekker vindt om met ChatGPT te werken.
318
00:20:42,959 --> 00:20:44,879
Rob: En het is zo gemakkelijk allemaal.
319
00:20:44,879 --> 00:20:47,839
Rob: En daar zit denk ik een van de grootste uitdagingen.
320
00:20:47,838 --> 00:20:49,119
Rob: Dat is echt de menskant.
321
00:20:49,119 --> 00:20:53,038
Rob: Hoe gaan we met z'n allen ervoor zorgen dat we bereid zijn om te zeggen.
322
00:20:53,038 --> 00:20:55,278
Rob: En nu stoppen we ermee en we gaan het anders doen.
323
00:20:55,278 --> 00:20:57,919
Rob: En we weten dat het een beetje pijn gaat doen.
324
00:20:57,919 --> 00:20:59,199
Joop: Maar gaan het toch doen.
325
00:20:59,758 --> 00:21:01,358
Joop: En zolang je nog.
326
00:21:01,439 --> 00:21:04,798
Rob: En ik denk wel dat Trump ons heel erg helpt.
327
00:21:04,798 --> 00:21:07,358
Rob: Europa is eensgezinder dan ooit.
328
00:21:08,159 --> 00:21:15,598
Rob: Dus hoe vervelend het ook is dat hij de wereld aan het verstoren is, het gaat ons ook de kans bieden om nu door te pakken.
329
00:21:15,599 --> 00:21:23,118
Rob: En ik zie gelukkig heel veel partijen, zoals TETA, zoals de ROM, maar zoals heel veel andere partijen waarmee we samenwerken.
330
00:21:23,119 --> 00:21:28,078
Rob: Bell en Cad, om maar even goed voor een van de partijen waar we heel nauw mee samenwerken.
331
00:21:28,639 --> 00:21:33,199
Rob: Die gewoon zonder energie te verliezen hiermee doorgaan.
332
00:21:33,199 --> 00:21:34,558
Joop: En dat heb je gewoon nodig.
333
00:21:34,558 --> 00:21:36,399
Rob: En dan gaat iedereen uiteindelijk wel om.
334
00:21:36,399 --> 00:21:38,159
Niels: En dan kijken we naar de eerste stap.
335
00:21:38,159 --> 00:21:40,238
Niels: Ik ben wel benieuwd als we even vijf jaar vooruit kijken.
336
00:21:40,399 --> 00:21:41,838
Niels: Dit is in deze wereld heel erg moeilijk.
337
00:21:41,838 --> 00:21:47,118
Niels: Maar nog even van wanneer zou nou echt super trots zijn wat er bereikt is vanuit TETA.
338
00:21:47,119 --> 00:21:49,118
Niels: Over vijf jaar, wat is dat dan?
339
00:21:49,119 --> 00:21:56,238
Rob: Ja, kijk, onze grote doel is dat vertrouwen in Europa weer een asset wordt in plaats van een probleem.
340
00:21:56,558 --> 00:21:58,079
Rob: Daar doen we het allemaal voor.
341
00:21:58,079 --> 00:22:17,919
Rob: En dat betekent dat ik zou het super gaaf vinden als laten we beginnen bij de jongere doelgroep, als kinderen binnen nu een vijf jaar er vertrouwd en gewoon mee zijn om wanneer ze informatie zien om zich af te vragen waar het vandaan komt, wie het gemaakt heeft en hoe het bewerkt is bijvoorbeeld.
342
00:22:17,919 --> 00:22:18,638
Niels: Klinkt heel simpel.
343
00:22:18,798 --> 00:22:29,519
Rob: Dat zou, nou ja, er is natuurlijk al een besluit genomen dat vanaf 2030 digitale geletterd een vast onderdeel van het curriculum van alle middelbare en lage scholen wordt.
344
00:22:29,518 --> 00:22:31,518
Rob: Dus daar ben ik heel blij mee.
345
00:22:31,838 --> 00:22:33,679
Rob: Maar dat zou super gaaf zijn.
346
00:22:33,679 --> 00:22:44,398
Rob: En daarnaast zou het zou het heel belangrijk zijn, denk ik dat we vanuit de nationale technologiestrategie, het planwenning en dergelijke, waar veel geld dadelijk naar innovatie gaat.
347
00:22:44,399 --> 00:22:46,959
Joop: Ook een belangrijk deel van het geld gaan stoppen.
348
00:22:46,959 --> 00:22:51,518
Rob: In het mee helpen van Europese techbedrijven.
349
00:22:51,518 --> 00:22:55,998
Rob: Om financiering te kunnen krijgen om die harde groei die nodig is.
350
00:22:55,998 --> 00:23:01,198
Rob: Ook om al die behoeften die er straks gaat ontstaan om over te stappen, daadwerkelijk ook te kunnen leveren.
351
00:23:01,358 --> 00:23:03,358
Rob: Want Nextcloud klinkt super cool.
352
00:23:03,518 --> 00:23:07,838
Rob: Maar als er nu 100.000 bedrijven tegelijk op next, niet een probleem.
353
00:23:08,079 --> 00:23:16,559
Rob: Dus daar moet ook de, zal ik maar zeggen de EU en de landen zelf budgetten beschikbaar gaan stellen om ervoor te zorgen dat we kunnen opschalen.
354
00:23:16,558 --> 00:23:21,199
Rob: En misschien ook wel de ondernemers te helpen om die overstap te maken.
355
00:23:21,199 --> 00:23:27,199
Rob: Want voucher regelingen op te zetten, door subsidies te verlenen aan partijen die willen overstappen.
356
00:23:27,199 --> 00:23:29,118
Joop: Want ja, we zullen toch.
357
00:23:29,278 --> 00:23:31,758
Joop: En het besef is er wel in Europa, we zullen toch moeten doen.
358
00:23:31,758 --> 00:23:33,839
Joop: En dat van de kinderen vind ik wel wel mooi.
359
00:23:33,838 --> 00:23:41,439
Joop: Maar wat ik in mijn omgeving merk, is dat het soms omgedraaid qua geloof of niet geloven in iets.
360
00:23:41,439 --> 00:23:46,879
Joop: En dan kan ik misschien het beste illustreren dat ik woon heel dichtbij een recreatieplas.
361
00:23:47,199 --> 00:23:53,759
Joop: En daar zaten de afgelopen weken zaten daar in één keer flamingo's twee aan de aan de waterkant.
362
00:23:53,758 --> 00:23:55,199
Joop: We hebben foto's van gemaakt.
363
00:23:55,199 --> 00:23:56,638
Joop: Een vrouw had die rondgestuurd.
364
00:23:56,639 --> 00:23:58,719
Joop: En eigenlijk de eerste die reageerde, die zei.
365
00:23:58,719 --> 00:24:00,159
Joop: Ha, leuk met AI.
366
00:24:00,798 --> 00:24:05,598
Joop: Dus we hebben ook te maken met de andere kant van dus echte beelden.
367
00:24:05,599 --> 00:24:10,478
Joop: Die niet meer geloofd worden, omdat ze iets maar afwijken van wat jij zelf denkt.
368
00:24:11,199 --> 00:24:11,998
Joop: Ja, toch?
369
00:24:11,998 --> 00:24:15,679
Joop: Want ik had altijd gedacht, we gaan alles geloven wat nep is.
370
00:24:15,679 --> 00:24:17,598
Joop: Maar we gaan nu dus ook heel veel wantrouwen.
371
00:24:17,599 --> 00:24:18,638
Joop: Wat echt is.
372
00:24:19,758 --> 00:24:22,758
Rob: Dat zul je zelf denk ik ook stiekem al ervaren hier en daar.
375
00:24:23,558 --> 00:24:37,238
Rob: Als je nu alle beelden bekijkt die je lang ziet komen op verschillende kanalen, over de bombardementen die er nu in Iran plaatsvinden en de berichtgeving daarover, dan ga je denk ik vanzelf ook afvragen, wacht even, wacht even, waar komt dit vandaan.
373
00:24:37,238 --> 00:24:48,038
Rob: En ja, op het moment dat die flaming foto straks gepost wordt, maar er zit een watermerk in, waardoor je meteen kunt zien of die echt is of niet, dan ben je al een stuk verder.
374
00:24:48,038 --> 00:24:52,518
Rob: Dus er zullen ook technologieën ontwikkeld gaan en moeten worden die ons daarbij gaan helpen.
375
00:24:52,518 --> 00:24:53,878
Rob: Daar ontkomen we helaas niet aan.
376
00:24:53,879 --> 00:25:02,038
Rob: En dat heeft er gewoon mee te maken dat er helaas zoveel idioten op aarde zijn die proberen ons op een andere manier te beïnvloeden dat we dat nou eenmaal moeten doen met elkaar.
377
00:25:02,758 --> 00:25:05,238
Joop: En laten we laten we die handschoenen nam maar oppakken.
378
00:25:05,478 --> 00:25:11,798
Rob: En als mensen die wel het goede ermee voor hebben, het voortouw nemen om dat te regelen met elkaar.
379
00:25:11,798 --> 00:25:16,279
Niels: Stel, er zijn luisteraars, die zitten net een nieuwsbericht, die komt net op hun social media feed binnen.
380
00:25:16,278 --> 00:25:18,599
Niels: Wat voor stappen kunnen ze doen om het te controleren?
381
00:25:18,599 --> 00:25:22,679
Rob: Ja, kijk, dat kan ik niet zeggen.
382
00:25:22,679 --> 00:25:26,839
Rob: Omdat, kijk, iedereen kijkt op een andere manier naar informatie.
383
00:25:26,838 --> 00:25:30,278
Rob: En ik realiseer me heel goed dat ik een opleiding heb gehad.
384
00:25:30,278 --> 00:25:36,679
Rob: Dat ik daardoor, en dat ik nieuwsgierig ben en dat ik daardoor ook gesprekken met mijn kinderen aangaan over wat er allemaal gebeurt.
385
00:25:36,679 --> 00:25:38,518
Rob: En ze vragen mij ook papa is oorlog?
386
00:25:38,758 --> 00:25:40,518
Rob: Wanneer komt er hier oorlog?
387
00:25:40,838 --> 00:25:45,558
Rob: Maar er zijn ook heel veel gezinnen in in Nederland waar dat gesprek helemaal niet gevoerd wordt.
388
00:25:45,558 --> 00:25:49,158
Rob: Of omdat de ouders zichzelf geen raad weten met de informatie.
389
00:25:49,478 --> 00:25:53,719
Rob: Of om welke andere reden dat überhaupt het gesprek niet gevoerd wordt.
390
00:25:54,038 --> 00:25:56,358
Rob: Dus dat is een hele ingewikkelde vraag.
391
00:25:56,679 --> 00:26:06,439
Rob: In mijn droom is het zo dat misschien moeten we, laat ik het zo zeggen, misschien moeten we wel helemaal opnieuw beginnen met social media.
392
00:26:06,439 --> 00:26:12,119
Rob: Er zijn initiatieven daarvoor, zoals W, wat nu vanuit Scandinavië wordt opgezet.
393
00:26:12,119 --> 00:26:16,758
Rob: Maar in Nederland wordt ook gesproken over een eigen nieuwe social media.
394
00:26:16,758 --> 00:26:22,598
Rob: Die opgericht worden op basis van wat wij met z'n allen afspreken dat democratische waarden zijn.
395
00:26:22,599 --> 00:26:28,838
Rob: En dan zou het dus ook betekenen dat je de methodieken die je gebruikt ook zodanig inrichten.
396
00:26:28,838 --> 00:26:34,758
Rob: Dat de content altijd bijvoorbeeld van een geverifieerde bron, geverifieerde bron moet komen.
397
00:26:34,838 --> 00:26:39,558
Rob: Stel je nou eens voor dat we nu het besluit zouden nemen, ik begrijp overigens nog steeds niet waarom het niet genomen is.
398
00:26:39,558 --> 00:26:44,599
Rob: Dat iedereen die op een social medium begint, zichzelf moet identificeren met zijn paspoort.
399
00:26:44,838 --> 00:26:48,199
Joop: Ik denk dat we dan al 80% van de LN kwijt zouden zijn.
400
00:26:48,199 --> 00:26:51,158
Joop: Maar ik geloof dat juist voor Bits of Freedom daar juist weer tegen is.
401
00:26:51,639 --> 00:26:53,879
Joop: Dan hebben we het niet meer over het vrije internet.
402
00:26:54,038 --> 00:26:55,238
Joop: Ik ben het ook met je toch.
403
00:26:55,478 --> 00:26:57,798
Joop: Maar zoals het nu gaat, is ook geen op, denk ik.
404
00:26:57,798 --> 00:26:58,838
Rob: Met alle goede bedoelingen.
405
00:26:58,998 --> 00:27:02,919
Joop: Ik denk wel eens van, we vinden het uiteindelijk allemaal nog niet erg genoeg.
406
00:27:02,919 --> 00:27:05,158
Joop: Want anders zouden we er wel wat aan doen.
407
00:27:05,559 --> 00:27:07,478
Joop: De gains zijn te groot.
408
00:27:07,639 --> 00:27:09,318
Rob: Dat is het grote probleem op dit moment.
409
00:27:09,318 --> 00:27:12,118
Rob: Je krijgt te veel voor niks.
410
00:27:12,679 --> 00:27:17,878
Joop: En je moet het gevoel krijgen dat je iets aan het inleveren bent, voordat je de afstand van neemt.
411
00:27:17,879 --> 00:27:19,719
Niels: Ja, maar eigenlijk leveren al heel veel in.
412
00:27:19,719 --> 00:27:26,358
Niels: We leveren namelijk heel veel van onze data in, van eigenlijk onze persoonlijke gegevens, onze stroom, onze dagelijke activiteiten.
413
00:27:26,358 --> 00:27:27,959
Joop: Alleen dat wordt nog niet gevoeld.
414
00:27:28,038 --> 00:27:30,838
Niels: Nee, ik snap niet waarom wordt dat niet gevoeld.
415
00:27:31,079 --> 00:27:32,199
Joop: Snap je dat niet?
416
00:27:32,278 --> 00:27:35,238
Joop: Kijk, ja, jij ben jullie zijn natuurlijk met deze podcast bezig.
417
00:27:35,238 --> 00:27:38,518
Joop: Dus je bent daar met enige regelmaat over na aan het denken.
418
00:27:38,518 --> 00:27:42,199
Rob: Maar de gemiddelde Nederlander en de gemiddelde Europeaan denk daar geen seconde over na.
419
00:27:42,199 --> 00:27:45,398
Rob: Die typt gewoon de volgende vraag in en kijkt naar het antwoord.
420
00:27:45,399 --> 00:27:50,518
Rob: En welke partij daarachter zit, dat maakt niet zoveel uit als ze zelf maar blij zijn met het antwoord.
421
00:27:50,518 --> 00:27:57,318
Joop: En hoe gaat ze direct dan die gewone gewone burger wat merken van de initiatieven die jullie ontplooien met The European Trust Alliance.
422
00:27:57,318 --> 00:28:04,679
Rob: Ja, nou niet zozeer denk ik van wat wij met The European Trust Alliance ontplooien, maar wel wat de allianties erachter uiteindelijk gaan ontwikkelen.
423
00:28:05,079 --> 00:28:08,599
Rob: Dus kijk, een autonomy lab is gericht op bedrijfsleven.
424
00:28:08,599 --> 00:28:12,118
Rob: Dus daarmee helpen we bedrijven om die overstap te maken.
425
00:28:12,119 --> 00:28:17,798
Rob: Ik geloof er heilig in dat de bedrijven die dat gaan doen, ook hun personeel mee gaan nemen in die overstap.
426
00:28:17,798 --> 00:28:20,038
Rob: Da raak je denk ik al een hele belangrijke snaar.
427
00:28:20,038 --> 00:28:21,558
Rob: Want dat zijn gewoon burgers.
428
00:28:21,558 --> 00:28:29,719
Rob: En op het moment dat ze vanuit het bedrijf waar ze werken en de meeste mensen in Nederland werken, ook dit soort alternatieven zien, zullen ze zelf ook over gaan stappen.
429
00:28:30,038 --> 00:28:32,839
Rob: Dus daar zit voor mij een hele belangrijke schakel.
430
00:28:33,558 --> 00:28:38,199
Rob: Een schakel die denk ik autonoom gaat op het moment dat je vanuit het bedrijfsleven kunt beginnen daarmee.
431
00:28:38,199 --> 00:28:47,078
Rob: Daarnaast vind ik echt, en daar kunnen we denk ik heel veel leren van Scandinavische landen, maar ook van Balkanlanden, dat we moeten beginnen met het invoeren van campagnes.
432
00:28:47,079 --> 00:28:51,558
Rob: En dat klinkt misschien een beetje megalomaan, maar het informeren van mensen.
433
00:28:51,798 --> 00:28:54,278
Rob: Op wat is nou wat je ziet.
434
00:28:54,919 --> 00:29:01,079
Rob: Er zijn websites waar je dat al kunt checken, maar die hebben lang niet de funding gekregen om dat landelijk aan te pakken.
435
00:29:01,079 --> 00:29:07,518
Rob: Ik vind echt dat de overheid moet gaat nadenken over kunnen we niet iets via een kanaal, via influencers.
436
00:29:05,559 --> 00:29:09,518
Rob: Bankzittersachtige types.
440
00:29:10,159 --> 00:29:18,638
Rob: Wat denk ik groot bereik heeft, kunnen we niet met dat soort partijen gaan samenwerken, los van met de belangrijke nieuwspartijen.
437
00:29:18,639 --> 00:29:22,959
Rob: Om de mensen te informeren over waar lopen we nou met z'n allen tegenaan.
438
00:29:22,959 --> 00:29:24,798
Rob: Ik denk dat we daar gewoon mee moeten beginnen.
439
00:29:24,879 --> 00:29:29,679
Niels: Ik moest gelijk denken aan het programma Kassa, wat op de NPO wordt uitgezonden, inderdaad.
440
00:29:29,758 --> 00:29:35,119
Niels: Wat mensen informeert over is dit wel fair wat er gebeurt en dat soort zaken, eigenlijk over informatie.
441
00:29:35,119 --> 00:29:36,959
Niels: Ik ben blij dat het niet geschrapt is uit het budget.
442
00:29:36,959 --> 00:29:40,959
Niels: En dat ik dat wel doorgaan, ik ben blij dat dat soort nieuws eigenlijk gebracht wordt.
443
00:29:40,959 --> 00:29:43,679
Niels: Ik denk dat dat soort initiatieven nodig hebben, ook op de datavlak.
444
00:29:43,998 --> 00:29:44,559
Niels: Absoluut.
445
00:29:44,959 --> 00:29:46,398
Rob: Ja, en dat is.
446
00:29:46,959 --> 00:29:55,598
Rob: Kijk, een van de dingen: een van de interessante ontwikkelingen die er speelt binnen de media, moet je maar eens over nadenken, is we zien dus een bepaalde beweging.
447
00:29:55,599 --> 00:30:03,998
Rob: Mediapartijen, nieuwspartijen hebben steeds meer moeite om door hun voorkeur publiek relevant gevonden te worden.
448
00:30:04,318 --> 00:30:12,798
Rob: Tegelijkertijd zie je dus, dat geef ik even dat voorbeeld van die bankzitters, die jongens hebben tussen de een en de 3 miljoen kijkers per uitzending op YouTube.
449
00:30:12,798 --> 00:30:16,398
Rob: Daarnaast verkopen ze de Ziggo Dome in no time x-keer uit.
450
00:30:16,639 --> 00:30:18,399
Rob: Ik heb ze een mailtje gestuurd.
451
00:30:19,038 --> 00:30:22,558
Rob: kunnen we niet eens praten over hoe jullie tegen dit soort dingen aankijken.
452
00:30:22,558 --> 00:30:31,358
Rob: En ik denk dat we dat ook de media steeds meer goed aan zouden kunnen doen om eens met niet de usual suspects aan tafel te gaan zitten.
453
00:30:31,359 --> 00:30:35,118
Rob: En eens te gaan kijken, God, wat is media eigenlijk nu?
454
00:30:35,119 --> 00:30:37,038
Joop: Dat is namelijk ook technologie.
455
00:30:37,038 --> 00:30:38,638
Rob: En hoe zit dat dan in elkaar?
456
00:30:38,639 --> 00:30:43,998
Rob: En moeten we niet onszelf voor een deel opnieuw gaan uitvinden om die relevante rol wel te behouden.
457
00:30:43,998 --> 00:30:48,719
Rob: Want ik geloof er heilig in dat iedereen, ook jongeren.
458
00:30:48,719 --> 00:30:51,998
Rob: Het belangrijk vinden dat ze de juiste informatie kunnen krijgen.
459
00:30:51,998 --> 00:30:55,038
Rob: De vraag is, waar krijgen ze die en via welke kanaal.
460
00:30:56,078 --> 00:30:58,238
Rob: En op welke manier wordt dat ingericht.
461
00:30:58,238 --> 00:31:00,719
Rob: En daar zit denk ik nog een wereld te winnen.
462
00:31:00,719 --> 00:31:03,118
Rob: Maar ja, ik geef ze het maar te doen.
463
00:31:03,358 --> 00:31:09,759
Rob: Je zit met grote redacties, met allemaal mensen die keihard werken om het juiste naar voren te brengen, op de juiste manier.
464
00:31:09,758 --> 00:31:12,238
Rob: Ja, dat is ook moeilijk om dan die transitie door te maken.
465
00:31:12,238 --> 00:31:14,799
Rob: Maar ik denk wel dat we dat gesprek moeten voeren met elkaar.
466
00:31:14,798 --> 00:31:22,238
Joop: En wat vind je dan van zo zijn in Australië hebben ze nu de leeftijdsgrenzen verhoogd voor het gebruik van social media?
467
00:31:22,238 --> 00:31:23,199
Joop: Wat vind je daarvan?
468
00:31:23,199 --> 00:31:24,798
Rob: Ja, dat is een persoonlijke vraag.
469
00:31:24,959 --> 00:31:31,598
Rob: Die kan ik alleen beantwoorden als vader en niet als trekker van TETA of lid van management bij de ROM.
470
00:31:31,919 --> 00:31:34,159
Joop: Ik ben daar persoonlijke voorstander van.
471
00:31:34,159 --> 00:31:37,199
Rob: Maar een paar jaar geleden had ik dat nog anders gezien, denk ik.
472
00:31:37,199 --> 00:31:39,359
Rob: Totdat ik zelf die negatieve ervaring hebben.
473
00:31:39,359 --> 00:31:43,439
Rob: Ik denk dat de invloed van de algoritmes zo groot is.
474
00:31:43,439 --> 00:31:50,238
Rob: Dat je tijdlijnen met informatie voorschotelt aan mensen die daar nog helemaal niet klaar voor zijn.
475
00:31:50,238 --> 00:31:56,079
Rob: En vanuit dat perspectief vind ik het een juist besluit om het naar een bepaalde leeftijdsgrens toe te trekken.
476
00:31:56,079 --> 00:31:58,798
Rob: De vraag is wel of dat gaat lukken.
477
00:31:58,798 --> 00:32:04,478
Rob: Omdat toon je aan dat je te jong bent of oud genoeg.
478
00:32:04,879 --> 00:32:08,318
Rob: Maar ik vind het in ieder geval een hele mooie stap die gezet wordt.
479
00:32:08,318 --> 00:32:12,159
Joop: En ik zou willen dat we in Nederland ook iets soortgelijks doen.
480
00:32:12,478 --> 00:32:17,838
Rob: Maar leidt dan ook meteen helpt dan ook de ouders om goed te snappen wat er allemaal gebeurt binnen die sociale kanalen.
481
00:32:17,838 --> 00:32:20,238
Joop: Ja, want er is natuurlijk ook heel veel sociale druk.
482
00:32:20,238 --> 00:32:22,079
Joop: Er is ontzettend veel sociale druk.
483
00:32:22,719 --> 00:32:29,598
Rob: Die kinderen voor hun is het social medium niet alleen maar een informatiekanaal, maar daar lullen ze de hele dag over met elkaar.
484
00:32:31,518 --> 00:32:35,439
Rob: Dus je moet het helemaal weghalen, is lastig.
485
00:32:35,439 --> 00:32:39,598
Rob: Maar je zou wel kunnen zeggen, zoals hebben ze dat niet met suiker gedaan in Nieuw-Zeeland.
486
00:32:40,079 --> 00:32:40,959
Joop: Of roken.
487
00:32:41,278 --> 00:32:43,838
Joop: Vanaf een bepaalde generatie hebben wij geen rokers meer.
488
00:32:43,838 --> 00:32:46,319
Joop: Omdat als je nu geboren wordt, mag je nooit meer roken.
489
00:32:46,558 --> 00:32:48,078
Joop: Nou ja, weet ik veel.
490
00:32:48,079 --> 00:32:52,478
Rob: Soms vragen grote ernstige problemen, ook om rigoureuze keuzes.
491
00:32:52,719 --> 00:32:55,838
Joop: Dat vind ik eigenlijk best wel een hele mooie afsluiter.
492
00:32:56,318 --> 00:32:58,238
Joop: Grote vragen, grote rigoureuze keuzes.
493
00:32:58,238 --> 00:33:03,199
Joop: Dank je wel dat je inzicht hebt gegeven wat je bij TETA doet en de ROM.
494
00:33:03,919 --> 00:33:08,959
Joop: Wat zou je iemand die nu luistert willen meegeven, waar zouden ze vandaag mee kunnen starten?
495
00:33:09,278 --> 00:33:12,799
Joop: Om desinformatie in ieder geval te kunnen herkennen.
496
00:33:12,798 --> 00:33:15,998
Rob: Nou, het enige wat ik kan zeggen is: blijf kritisch.
497
00:33:15,998 --> 00:33:21,359
Rob: Want je mag jezelf, je mag jezelf afvragen of iets wat je ziet waar is of niet.
498
00:33:21,358 --> 00:33:24,799
Rob: En alleen al door die vraag aan jezelf te durven stellen, kom je dan heel eind.
499
00:33:24,798 --> 00:33:26,078
Joop: Kijk, dankjewel.
500
00:33:26,399 --> 00:33:27,599
Joop: Dankjewel voor de uitnodiging.
501
00:33:27,599 --> 00:33:29,038
Joop: Super, dankjewel Rob.
502
00:33:29,278 --> 00:33:31,919
Joop: Leuk dat je weer luisteren naar deze aflevering.
503
00:33:31,919 --> 00:33:34,719
Joop: Vergeet je niet te abonneren via je favoriete podcast.
504
00:33:35,038 --> 00:33:36,159
Joop: Dan mis je geen aflevering.
505
00:33:36,159 --> 00:33:36,998
Joop: Tot de volgende keer!