AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is uitgeroepen tot AI Podcast of the Year 2025 en is drie keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S08E28 - Deze prompt legt jou op de pijnbank. Durf jij het aan?
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
Hoe weet je of je AI eigenlijk wel nodig hebt voor een taak? De meeste mensen controleren AI-output achteraf, maar vergeten te vragen of ze die output wel nodig hadden. Joop deelt twee praktische methodes om kritisch denken vooraf toe te passen, plus een simpele prompt die wekelijks je AI-gebruik analyseert.
De "roast my chats" methode laat AI zelf je gedrag analyseren en geeft ongezouten feedback op waar je tijd verspilt. Bij Joop kwam eruit dat hij uren besteedde aan PDF-opmaak die beter uitbesteed kon worden. Morgen kun je je chatgeschiedenis van vorige week analyseren met één prompt en patronen ontdekken die je zelf niet ziet.
Onderwerpen
- Het verschil tussen output controleren en kritisch denken over AI-inzet
- De 'roast my chats' methode: AI laten analyseren waar je tijd aan besteedt
- Data verzamelen over je eigen werkproces met tools zoals de Conversation Coach
- Drie concrete stappen om kritischer met AI om te gaan
- Boek: Bouke Vlierhuis - AI Survival Gids voor de B2B-marketeer
- Organisatie: Gartner - Wikipedia
- Aflevering: S07E66 - De paradox van overproductie in het AI-tijdperk
- Aflevering: S07E44 - Systeem 0: Denk jij nog zelf?
- Aflevering: S07E29 - Feedback geven 2.0: Hoe AI het onderwijs persoonlijker maakt
Genoemde entiteiten: Gartner
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:01,839 --> 00:00:05,680
Ho, leuk dat je weer luistert naar de korte aflevering van AIToday Live.
2
00:00:05,679 --> 00:00:19,679
Mijn naam is Joop Snijder, CTO bij Aigency, en waar ik het vandaag over ga hebben, is dat je een onderwerp dat je overal leest in blogs, training op LinkedIn.
3
00:00:19,679 --> 00:00:23,759
En daar staat dan wees kritisch op AI output.
4
00:00:23,759 --> 00:00:27,760
Controleer wat eruit komt en check de bronnen.
5
00:00:27,919 --> 00:00:33,039
Vertrouw niet klakkeloos op wat een taalmodel schrijft, dat is hartstikke goed advies.
6
00:00:33,039 --> 00:00:36,640
Maar dit wordt altijd wel gekoppeld aan kritisch denken.
7
00:00:37,440 --> 00:00:42,080
Is dat wel kritisch denken of is dat gewoon nakijken?
8
00:00:42,400 --> 00:00:43,840
Ik laat me maar even scherp zijn.
9
00:00:43,840 --> 00:00:46,799
Dus output controleren is zorgvuldigheid.
10
00:00:46,799 --> 00:00:53,440
Kijk, je checkt of bronnen kloppen of het taalmodel niet hallucineert, of de feiten kloppen.
11
00:00:53,520 --> 00:00:56,159
En dat is toch review, dus nakijken.
12
00:00:56,159 --> 00:00:58,160
En ja, dat is hartstikke nodig.
13
00:00:58,399 --> 00:01:08,399
In een eerdere aflevering over AI-overproductie heb ik al eens aangegeven hoe lastig dat wordt als de hoeveelheid output groeit en de human in the loop steeds meer moet controleren.
14
00:01:08,400 --> 00:01:14,640
Maar kritisch denken zit wat mij betreft veel eerder in het proces voordat je begint.
15
00:01:14,640 --> 00:01:18,000
Heb je generatieve AI eigenlijk wel nodig voor deze taak.
16
00:01:18,000 --> 00:01:22,159
En wat win je ermee en minstens zo belangrijk, wat laat je achter.
17
00:01:22,159 --> 00:01:24,960
Want bij automatiseren verlies je ook iets.
18
00:01:24,960 --> 00:01:29,199
En dan bedoel ik niet meteen de grote zorgen over cognitieve vaardigheden.
19
00:01:29,600 --> 00:01:32,239
Ik bedoel eigenlijk iets subtielers.
20
00:01:32,240 --> 00:01:34,559
Soms verlies je namelijk flexibiliteit.
21
00:01:34,560 --> 00:01:38,400
Of je verliest het gelukkige toeval.
22
00:01:38,400 --> 00:01:46,879
Dus minder fouten door automatisering klinkt geweldig, maar het kan ook betekenen dat je minder verrast wordt en dat iets onverwachts je op een beter idee brengt.
23
00:01:46,880 --> 00:01:51,519
Die ene tikfout in de zoekterm die je bij een heel ander artikel bracht.
24
00:01:51,839 --> 00:01:54,719
Dat serendipity-effect verdwijnt als je alles stroomlijnt.
25
00:01:54,719 --> 00:01:56,719
En dat hoeft helemaal niet erg te zijn.
26
00:01:57,280 --> 00:02:01,679
Maar dit soort afwegingen is kritisch denken op zijn minst.
27
00:02:01,679 --> 00:02:11,199
Dus niet het afvinken van een checklist achteraf, maar vooral bewust nadenken over wat automatiseer je oplevert en wat het je kost.
28
00:02:11,759 --> 00:02:18,479
Maar er zijn in die zin andere manieren die ook helpen in kritisch denken.
29
00:02:18,960 --> 00:02:22,320
Daar wil ik er twee namelijk met je delen.
30
00:02:22,639 --> 00:02:30,400
En het eerste dat begon misschien meer als een soort van grapje, maar is inmiddels een gewoonte geworden.
31
00:02:30,399 --> 00:02:37,919
Ik geef mijn taalmodel bijna wekelijks een hele simpele prompt in het Engels, maar ik denk dat hij het in het Nederlands ook doet.
32
00:02:38,240 --> 00:02:40,159
Ik geef hem net in het Engels.
33
00:02:40,159 --> 00:02:44,720
Roast my chats from last week and challenge me where to do better.
34
00:02:44,720 --> 00:02:46,319
En meer niet.
35
00:02:46,479 --> 00:02:49,599
En wat je terugkrijgt is verrassend waardevol.
36
00:02:49,600 --> 00:02:54,240
Het taalmodel geeft niet alleen kritiek, maar doet ook suggesties voor verbetering.
37
00:02:54,720 --> 00:02:57,680
Sommige punten waren echte eye-openers.
38
00:02:57,680 --> 00:02:59,760
Dingen waar ik niet zelf aan had gedacht.
39
00:02:59,759 --> 00:03:02,800
En andere punten waren ronduit hilarisch.
40
00:03:02,800 --> 00:03:05,200
Ik kreeg bijvoorbeeld te horen deze wel grappig.
41
00:03:05,439 --> 00:03:08,240
Je besteedt serieuze tijd aan PDF-opmaak.
42
00:03:08,240 --> 00:03:09,840
Twee chats, twee.
43
00:03:09,840 --> 00:03:13,599
Gaan over het reverse-engineeren van een PDF-design.
44
00:03:13,599 --> 00:03:17,999
Inclusief superscript-referenties en kleurschema's.
45
00:03:18,000 --> 00:03:21,599
Dat is werk voor een designer of een stagiair.
46
00:03:21,599 --> 00:03:22,480
Oei.
47
00:03:22,480 --> 00:03:24,080
Ik was daar inderdaad mee bezig.
48
00:03:24,080 --> 00:03:27,359
Want ik wilde een stuk wat ik geschreven had mooi opgemaakt hebben.
49
00:03:27,360 --> 00:03:28,800
En ik ga een voorbeeld.
50
00:03:28,799 --> 00:03:32,800
En voordat je het weet ben je met van alles en nog wat bezig.
51
00:03:33,599 --> 00:03:36,640
Deze was eigenlijk wel terecht.
52
00:03:37,519 --> 00:03:40,960
En een andere die mij ook wel trof.
53
00:03:41,119 --> 00:03:45,920
Die ook heel terecht was, een kritische analyse op mijn Gartner-gebruik.
54
00:03:46,080 --> 00:03:52,720
Gartner is een analysebureau en daar kan je allerlei research vinden.
55
00:03:54,480 --> 00:03:57,280
Bedrijfsresearch over alles en nog wat.
56
00:03:57,519 --> 00:04:00,800
En het taalmodel zei daarover wat ik daar gedaan had.
57
00:04:00,799 --> 00:04:03,919
Wat zegt Gartner over de komende vijf jaar?
58
00:04:04,159 --> 00:04:07,680
Dat is een vraag die elke willekeurige consultant ook stelt.
59
00:04:07,920 --> 00:04:11,680
Luister, jij bent CTO bij Aigency.
60
00:04:11,680 --> 00:04:15,360
Je zou Gartner-data moeten challengen, niet consumeren.
61
00:04:15,360 --> 00:04:18,720
Pak nou eens die acht voorspellingen en schrijf een tegengeluid.
62
00:04:18,720 --> 00:04:20,480
Waar zit Gartner ernaast?
63
00:04:20,479 --> 00:04:24,800
Wat zie jij in de praktijk bij je klanten dat die voorspelling nuanceert.
64
00:04:24,800 --> 00:04:27,680
Dat is content die past bij jouw positie.
65
00:04:28,960 --> 00:04:30,639
Dat was wel sterk.
66
00:04:31,439 --> 00:04:33,759
Daar ga ik ook echt daadwerkelijk iets mee doen.
67
00:04:35,199 --> 00:04:36,399
Dit is echt wel.
68
00:04:36,399 --> 00:04:37,680
Dit komt dan binnen.
69
00:04:38,000 --> 00:04:47,519
Waar je dan over denkt van precies het soort inzicht dat je zelf over het hoofd ziet omdat je er middenin zit.
70
00:04:48,079 --> 00:04:52,000
En dat bracht me bij het tweede voorbeeld.
71
00:04:52,000 --> 00:04:54,720
En dat gaat eigenlijk over deze podcast.
72
00:04:55,040 --> 00:04:59,600
Want we praten bij AIToday Live vaak over kritisch denken richting AI.
73
00:04:59,720 --> 00:05:02,439
Maar passen we het dan ook toe op ons eigen werk.
74
00:05:02,439 --> 00:05:08,360
We interviewen bijvoorbeeld elke week gasten en denken altijd dat we dat best goed doen.
75
00:05:08,680 --> 00:05:14,120
Maar denken dat je goed interviewt en het weten zijn twee verschillende dingen.
76
00:05:14,120 --> 00:05:17,639
Daarom heb ik de Conversation Coach gebouwd.
77
00:05:17,639 --> 00:05:21,160
Een AI-tool die onze interviews analyseert op twee niveaus.
78
00:05:21,160 --> 00:05:24,680
Aan de ene kant harde cijfers: het percentage open vragen.
79
00:05:24,680 --> 00:05:28,759
De duur van de intro, het aantal strategische stiltes.
80
00:05:28,920 --> 00:05:31,159
Ja, gewoon hele pure data.
81
00:05:31,159 --> 00:05:37,000
En aan de andere kant laat ik een taalmodel de zachter kant beoordelen.
82
00:05:37,000 --> 00:05:45,079
Hoe goed vragen wij door, voelt het gesprek als een echte dialoog of als een afgewerkte vragenlijst die we trouwens even niet hebben.
83
00:05:45,319 --> 00:05:53,720
Dat soort nuance kun je niet in een formule vangen, maar een taalmodel dat het hele transcript heeft gelezen, kan daar wel een onderbouwde oordeel over geven.
84
00:05:53,879 --> 00:05:56,200
Die combinatie bleek eigenlijk best waardevol.
85
00:05:56,199 --> 00:05:58,759
De harde cijfers houden je eerlijk.
86
00:05:58,759 --> 00:06:04,759
En de zachter scores geven je context waarom een gesprek wel of niet in mindere mate werkte.
87
00:06:05,319 --> 00:06:11,639
In ons geval zagen we dat de correlatie tussen interviewkwaliteit en luistercijfers.
88
00:06:12,120 --> 00:06:13,720
Die is gewoon heel sterk.
89
00:06:13,720 --> 00:06:17,080
Dus betere interviewen leidt daadwerkelijk tot meer luisteraars.
90
00:06:17,079 --> 00:06:20,599
En dat is een meetbaar resultaat: geen onderbuikgevoel.
91
00:06:22,680 --> 00:06:25,960
Op zich weet je heel gaaf dat je allemaal dit soort dingen kan doen.
92
00:06:26,279 --> 00:06:30,120
Maar ik kan me ook voorstellen dat je denkt: ja, maar dit is wel heel tegenstrijdig.
93
00:06:30,120 --> 00:06:35,800
Dus technologie inzetten om kritisch te denken over je eigen technologiegebruik.
94
00:06:36,680 --> 00:06:37,720
Het werkt wel.
95
00:06:37,720 --> 00:06:41,639
En je kunt het in die zin op drie manieren toepassen.
96
00:06:41,639 --> 00:06:44,519
De eerste is de meest laagdrempelige.
97
00:06:44,600 --> 00:06:46,119
Zoals ik al eerder zei.
98
00:06:46,439 --> 00:06:51,160
Je kan je chatsgeschiedenis openen en dan typ je die prompt in.
98
00:06:51,399 --> 00:06:52,519
Roast my chats.
99
00:06:52,519 --> 00:06:55,079
En challenge me where to do better.
100
00:06:55,560 --> 00:06:59,560
Je krijgt daardoor ongezouten feedback op patronen die je zelf niet opmerkt.
101
00:06:59,560 --> 00:07:01,400
Dus waar besteed je te veel tijd aan?
102
00:07:01,399 --> 00:07:02,999
Waar stel je de verkeerde vragen?
103
00:07:03,000 --> 00:07:09,160
Wat had je beter zelf kunnen nadenken in plaats van een taalmodel in te schakelen.
104
00:07:09,560 --> 00:07:11,160
De tweede stap gaat verder.
105
00:07:11,480 --> 00:07:17,800
Wat wij hebben gedaan voor de podcast, kan jij natuurlijk ook doen dat je data verzamelt over je eigen proces.
106
00:07:17,959 --> 00:07:22,680
Niet om jezelf af te rekenen, maar juist om blinde vlekken zichtbaar te maken.
107
00:07:22,680 --> 00:07:24,680
Wij deden dat met onze interviews.
108
00:07:24,840 --> 00:07:29,239
Jij kan het doen met presentaties, e-mails, projectvoorstellen.
109
00:07:29,639 --> 00:07:33,240
Net waar je best wel gewoon tijd en energie in steekt.
110
00:07:33,240 --> 00:07:37,959
En ten derde, wees gewoon eerlijk voor jezelf wat je overneemt.
111
00:07:37,959 --> 00:07:41,800
Want zal al deze feedback correct zijn, maar hopen we niet.
112
00:07:41,960 --> 00:07:44,280
Precies daar begint het echt kritisch denken.
113
00:07:44,279 --> 00:07:48,519
Het bij de keuze wat je overneemt van die voorstellen en wat niet.
114
00:07:48,679 --> 00:07:51,400
Taalmodel zonder gevoel houd je een spiegel voor.
115
00:07:51,399 --> 00:07:54,680
En wat jij met die reflectie doet aan jou.
116
00:07:56,519 --> 00:08:02,120
Dus even afsluitend kritisch denken over AI gaat niet over het nakijken van output.
117
00:08:02,120 --> 00:08:06,040
Het gaat over het bevragen van je eigen aannames, je patronen en je keuzes.
118
00:08:06,279 --> 00:08:07,879
AI kan je daarbij helpen.
119
00:08:07,879 --> 00:08:13,479
Niet door voor je te denken, maar door je te laten zien waar je zelf niet meer naar kijkt.
120
00:08:14,360 --> 00:08:20,599
Dus bedenk altijd AI is niet de oplossing van elk probleem, onmisbaar waar het past.
121
00:08:22,199 --> 00:08:24,840
Dankjewel weer voor het luisteren naar deze aflevering.
122
00:08:24,840 --> 00:08:29,319
Vergeet je niet te abonneren via je favoriete podcast app of mis je geen aflevering.
123
00:08:29,319 --> 00:08:30,759
Tot de volgende keer.