AIToday Live
AIToday Live is een boeiende Nederlandstalige podcast voor iedereen die geïnteresseerd is in de wereld van kunstmatige intelligentie, ongeacht hun technische achtergrond. Hier zijn een paar redenen waarom je misschien wilt luisteren naar AIToday Live:
- Expert Inzichten: De podcast biedt gesprekken met Nederlandse en Belgische experts op het gebied van AI, waardoor luisteraars waardevolle inzichten en meningen rechtstreeks van leiders en vernieuwers in de industrie krijgen.
- Toegankelijk voor een Breed Publiek: Of je nu diep in de technische details zit of gewoon nieuwsgierig bent naar AI, de podcast presenteert informatie op een manier die zowel begrijpelijk als boeiend is voor zowel zakelijke als IT-professionals.
- Laatste Nieuws en Trends: Blijf op de hoogte van de nieuwste ontwikkelingen en innovaties in AI. De podcast dekt AI for Good en andere belangrijke trends die invloed kunnen hebben op verschillende industrieën en de samenleving als geheel.
Gepresenteerd door Joop Snijder, CTO van Aigency, en Niels Naglé, Area Lead Data & AI van Info Support, biedt de podcast een uniek perspectief op de praktische toepassing van AI binnen organisaties. Het duo bespreekt de (on)mogelijkheden van AI, de impact ervan op bedrijfsprocessen en hoe organisaties deze technologie kunnen inzetten om hun doelstellingen te bereiken.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Met deskundige gasten uit de industrie en academische wereld, biedt de AIToday Live podcast een platform voor het delen van best practices, innovaties en belangrijke inzichten in de wereld van AI. Van de nieuwste algoritmen en modellen tot de impact van AI op de toekomst van werk, de podcast biedt waardevolle informatie voor iedereen die geïnteresseerd is in AI en de rol die het speelt in organisaties.
Voor exclusieve content over de podcast achter de schermen, aankondiging van gasten en exclusieve artikelen, schrijf je dan in voor de nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S06E04 - Omgekeerde wereld: AI interviewt
In de aflevering 'Artificial Intelligence als Interviewer' van AIToday Live staat een opmerkelijk moment centraal: een AI-gedreven interviewer ondervraagt Joop Snijder over Generatieve AI.
Het is de omgekeerde wereld: AI vraagt en Joop geeft antwoord.
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:06,400
Hi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.
2
00:00:06,400 --> 00:00:13,360
Dit is echt wel een hele speciale aflevering, want ik ga geïnterviewd worden door AI.
3
00:00:13,360 --> 00:00:19,280
We zijn er inmiddels aan gewend om vragen te stellen aan ChatGPT en behoorlijk goede
4
00:00:19,280 --> 00:00:24,320
antwoorden terug te krijgen. Maar zou ChatGPT zelf ook goede vragen kunnen stellen?
5
00:00:24,320 --> 00:00:28,440
Nou, dat hebben we getest. Ik ben de interviewkandidaat die een keer de
6
00:00:28,440 --> 00:00:34,600
antwoorden terug mocht geven. Want ik word namelijk aan de tand gevoeld door ChatGPT.
7
00:00:34,600 --> 00:00:40,760
We hebben een AI interviewer gemaakt die gebaseerd is op generatieve AI.
8
00:00:40,760 --> 00:00:48,360
En die gaat mij ook bevragen over de toepassing van generatieve AI en de
9
00:00:48,360 --> 00:00:54,440
potentiële impact daarvan op Info Support. En ik kan je sowieso al vast vertellen dat
10
00:00:54,440 --> 00:00:59,240
wat vooral verbaast is de potentie van de chatbot om echt inhoudelijke volgvragen te stellen.
11
00:00:59,240 --> 00:01:03,560
Laten we eens even luisteren hoe dat gaat. Here we go.
12
00:01:03,560 --> 00:01:09,440
Kun je een voorbeeld geven van een project of initiatief binnen Info Support waarbij generatieve
13
00:01:09,440 --> 00:01:13,800
AI momenteel wordt ingezet of waarbij er plannen zijn om deze te gaan gebruiken?
14
00:01:13,800 --> 00:01:19,360
Ja, ik heb daar drie voorbeelden voor. Voor een grote bierbrouwwerij hebben wij een
15
00:01:19,360 --> 00:01:24,280
proof of concept gemaakt waarbij social media gegevens worden gebruikt om personas te maken.
16
00:01:24,280 --> 00:01:30,640
Mensen met gelijke karakteristieken worden gegroepeerd en met generatieve AI wordt een
17
00:01:30,640 --> 00:01:35,360
persona ontwikkeld, zowel in tekst als de bijbehorende profielfoto.
18
00:01:35,360 --> 00:01:43,480
We gebruiken daar GPT en DALI3 voor als techniek. Nadat de persona is gemaakt kunnen we met
19
00:01:43,480 --> 00:01:49,200
generatieve AI praten met de persona en marketinggerelateerde vragen stellen.
20
00:01:49,200 --> 00:01:55,320
Je moet hierbij bijvoorbeeld denken aan wat zouden goede advertentieteksten kunnen zijn?
21
00:01:55,320 --> 00:01:59,560
Hoe wil iemand benaderd worden? Nou ja, ga zo maar door.
22
00:01:59,560 --> 00:02:05,840
Ook hebben we een eigen AI assistent in productie die is gebaseerd op generatieve AI.
23
00:02:05,840 --> 00:02:11,760
Zo kunnen Info Supporters veilig zonder risico op het delen van gevoelige informatie de assistent
24
00:02:11,760 --> 00:02:18,240
gebruiken. Met generatieve AI worden ze dan geholpen om hun werk beter uit te voeren omdat
25
00:02:18,240 --> 00:02:23,920
we Info Support specifieke kennis hebben toegevoegd. Onze best practices liggen vast in onze guidance
26
00:02:23,920 --> 00:02:30,320
framework en deze kennis nemen we dan mee in de assistent en die neemt dat dan mee in het
27
00:02:30,320 --> 00:02:36,760
beantwoorden van vragen die je dan stelt. Tenslotte, samen met een klant zijn er plannen
28
00:02:36,760 --> 00:02:42,120
om generatieve AI in te zetten voor het extraheren van kennis uit ingescande documenten.
29
00:02:42,120 --> 00:02:47,280
De klant heeft ontzettend veel documenten die ook nog eens uit meerdere versies aan
30
00:02:47,280 --> 00:02:53,720
en aanvullingen bestaat. Met generatieve AI lezen we de documenten en halen we bijna
31
00:02:53,720 --> 00:03:00,840
100 vooraf gedefiniëerde kenmerken uit die documenten. Tenminste, dat is het plan.
32
00:03:00,840 --> 00:03:06,560
Interessant. Je hebt duidelijk uiteengezet hoe generatieve AI een rol speelt binnen
33
00:03:06,560 --> 00:03:12,440
verschillende projecten bij Info Support. Laten we dieper ingaan op de toepassing in marketing.
34
00:03:12,440 --> 00:03:19,160
Het gebruik van personas die gegenereerd zijn door AI biedt fascinerende mogelijkheden voor
35
00:03:19,160 --> 00:03:25,800
marketingdoeleinden. Hoe waarborg je echter dat de gegenereerde inhoud nou aansluit bij de echte
36
00:03:25,800 --> 00:03:31,680
voorkeuren en behoeften van je doelgroep en hoe ga je te werk om eventuele vooroordelen in de AI
37
00:03:31,680 --> 00:03:39,040
modellen te identificeren en te mitigeren? Of de gegenereerde inhoud helemaal aansluit
38
00:03:39,040 --> 00:03:43,080
bij de echte voorkeuren en behoeften van je doelgroep, dat weet je helaas niet van tevoren.
39
00:03:43,080 --> 00:03:49,080
Maar je kunt wel meten of je het beter doet dan de huidige manier. De klant meet de conversie
40
00:03:49,080 --> 00:03:55,440
van advertenties en met een betere aansluiting zou die conversie omhoog moeten gaan. Anderzijds is
41
00:03:55,440 --> 00:04:01,440
de huidige manier van personas maken gebaseerd op internationale demografische data en ervaring
42
00:04:01,440 --> 00:04:09,480
van het marketingteam. Deze zit vol aanname en eventuele bias-vooroordelen. Wij zijn uitgegaan
43
00:04:09,480 --> 00:04:16,280
van data van social media. En dankzij de grotere hoeveelheden data hebben we zo een beter beeld
44
00:04:16,280 --> 00:04:21,400
kunnen vormen van een persona. Maar je hebt gelijk, dat sluit eventuele bias nog altijd niet
45
00:04:21,400 --> 00:04:27,640
uit. Echter, de resultaten en teksten die uit het systeem komen blijven beoordeeld worden door de
46
00:04:27,640 --> 00:04:33,960
marketeers van de organisatie en hebben ook een verplichting om naar die bias te kijken.
47
00:04:33,960 --> 00:04:41,560
Excuses, hier is de volgende vraag voor jou. Hoe zorgen jullie ervoor dat de AI-modellen actueel
48
00:04:41,560 --> 00:04:48,480
blijven en gebaseerd zijn op recente data, met name gezien de dynamische aard van sociale media?
49
00:04:48,480 --> 00:04:54,640
Is er een proces of systeem bij Info Support dat zich specifiek bezighoudt met het up-to-date
50
00:04:54,640 --> 00:05:00,280
houden van deze modellen? In het geval van personas wordt nieuwe data periodiek bijgeladen
51
00:05:00,280 --> 00:05:06,520
en kunnen de personas eenvoudig opnieuw worden samengesteld. Termijn en proces worden van tevoren
52
00:05:06,520 --> 00:05:10,560
afgestemd en geautomatiseerd op basis van de doelstellingen van de organisatie.
53
00:05:10,560 --> 00:05:17,000
Automatisering van data integratie lijkt een efficiënte manier om de AI-modellen relevant
54
00:05:17,000 --> 00:05:23,600
en actueel te houden. Nu vraag ik me af over de brede toepassing binnen de organisatie. Hoe
55
00:05:23,600 --> 00:05:27,960
borgen jullie de kennisoverdracht van deze generatieve AI-toepassingen naar andere
56
00:05:27,960 --> 00:05:32,680
afdelingen binnen Info Support, zodat het niet alleen bij gespecialiseerde teams blijft,
57
00:05:32,680 --> 00:05:36,560
maar ook door de rest van de organisatie effectief gebruikt kan worden?
58
00:05:36,560 --> 00:05:42,200
Wat een goede vraag. We hebben daar verschillende vormen voor. Zo is er een samenwerking tussen
59
00:05:42,200 --> 00:05:47,920
Info Support Nederland en Info Support België waar deze systemen worden ontwikkeld. De makers
60
00:05:47,920 --> 00:05:52,520
wisselen veel kennis onderling uit omdat ze daar profijt van hebben bij de doelontwikkeling van
61
00:05:52,520 --> 00:05:58,080
hun eigen systemen. Daarnaast borgen we zo snel mogelijk nieuwe best practices in ons
62
00:05:58,080 --> 00:06:04,160
guidance framework en delen we kennis via verschillende events. We hebben een Info Support
63
00:06:04,160 --> 00:06:09,920
kennisavond, we hebben een AI community en we delen dit ook binnen de area data en AI.
64
00:06:09,920 --> 00:06:16,960
Uitstekend. Het lijkt erop dat Info Support een sterke focus heeft op kennisdeling en samenwerking,
65
00:06:16,960 --> 00:06:22,880
zowel intern als internationaal. Als we ons nu richten op bijbehorende risico's,
66
00:06:22,880 --> 00:06:30,000
met de implementatie van AI in kritische bedrijfsprocessen komen ook risico's kijken,
67
00:06:30,000 --> 00:06:36,280
zoals veiligheidsproblemen en ethische vraagstukken. Kun je een situatie beschrijven waarbij jullie
68
00:06:36,280 --> 00:06:40,040
geconfronteerd werden met een dergelijk risico en hoe hebben jullie dit aangepakt?
69
00:06:40,040 --> 00:06:46,640
We hebben voor onszelf een helder ethisch kader. Zo is een van de uitgangspunten dat AI de mens
70
00:06:46,640 --> 00:06:51,920
moet versterken en niet vervangen. Daarnaast willen we verantwoordelijke systemen maken.
71
00:06:51,920 --> 00:06:57,360
En als we de vraag krijgen om modellen te ontwikkelen die mensen oneigenlijk benadelen,
72
00:06:57,360 --> 00:07:01,600
zullen wij niet ingaan op die vraag. In het afgelopen jaar hebben we twee
73
00:07:01,600 --> 00:07:06,240
mogelijke projecten daarom niet uitgevoerd. Het eerste ging voornamelijk om veiligheid.
74
00:07:06,240 --> 00:07:12,160
Het systeem bevatte medische zeer gevoelige gegevens van kwetsbare mensen. En nog voordat
75
00:07:12,160 --> 00:07:16,360
we de ethische beoordeling hadden gedaan, bleek dat de veiligheidsproblemen te ernstig waren
76
00:07:16,360 --> 00:07:21,600
en de potentiële klant niet bereid was deze op te lossen. We geven dan advies hoe deze
77
00:07:21,600 --> 00:07:24,720
veiligheidsrisico's te dichten, maar namen het project niet aan.
78
00:07:24,720 --> 00:07:30,360
Een ander project ging over het scoren van mensen voor vacatures. En dan voel je aan je water aan
79
00:07:30,360 --> 00:07:36,400
dat je gauw tegen ethische bezwaren, mogelijke discriminatie en misschien zelfs wetgeving gaat
80
00:07:36,400 --> 00:07:41,920
aanlopen. Ook hier hebben we in een vroeg stadium aangegeven dat wij een dergelijk model niet bouwen.
81
00:07:41,920 --> 00:07:47,240
De commitment aan ethische principes en veiligheid is duidelijk een prioriteit,
82
00:07:47,240 --> 00:07:53,840
wat vertrouwen wekt in de integriteit van Info Support. Dit brengt me bij de evaluatie van
83
00:07:53,840 --> 00:08:00,160
dergelijke projecten. Kun je het proces beschrijven dat Info Support hanteert voor ethische en
84
00:08:00,160 --> 00:08:05,880
veiligheidsbeoordelingen voorafgaand aan AI-projecten? Hoe wordt bepaald of een project
85
00:08:05,880 --> 00:08:10,600
voldoet aan jullie uitgangspunten? Nou, ten eerste bespreken we heel goed met
86
00:08:10,600 --> 00:08:16,720
onze klanten wat het doel is van het AI-project. Wat wil je veranderen? Wat wil je bereiken? Hiermee
87
00:08:16,720 --> 00:08:22,640
filter je de eerste ethische bezwaren er eigenlijk al uit. Daarna definiëren we het AI-project met
88
00:08:22,640 --> 00:08:28,760
de hulp van ons AI-experiment canvas. Daarin wordt je gedwongen om je project nog concreter
89
00:08:28,760 --> 00:08:34,760
te maken. Wat is je hypothese? Hoe ga je die meten? Welke ethische principes moeten worden afgewogen
90
00:08:34,760 --> 00:08:39,960
en welke wettelijke bepalingen moeten worden gecontroleerd? We leggen duidelijk vast op
91
00:08:39,960 --> 00:08:44,640
basis van welke criteria een project wordt stopgezet mochten we tegen deze principes
92
00:08:44,640 --> 00:08:50,480
aanlopen. We stimuleren onze medewerkers om goed na te denken over ethische principes en
93
00:08:50,480 --> 00:08:55,840
moedigen ze aan om deze ook te uiten. Zo hebben we in onze AI-community een hele sessie gewijd aan
94
00:08:55,840 --> 00:09:01,880
ethische grenzen. We delen ook voorbeelden van projecten van derden waar wij van vinden dat dit
95
00:09:01,880 --> 00:09:06,640
ethisch niet verantwoord was. Hier wordt steeds meer duidelijk waar onze grens ligt en wat we
96
00:09:06,640 --> 00:09:12,640
niet willen. En bij twijfel wordt in overleg besloten of het AI-project kan doorgaan en
97
00:09:12,640 --> 00:09:17,960
wordt dit aan een groep met verschillende disciplines voorgelegd. Een grondige en
98
00:09:17,960 --> 00:09:23,000
gestructureerde aanpak om te zorgen dat de AI-projecten ethisch verantwoord en wettelijk
99
00:09:23,000 --> 00:09:30,520
toelaatbaar zijn. Wat betreft de organisatiestructuur rond dit onderwerp? Hoe ervaren medewerkers de
100
00:09:30,520 --> 00:09:36,760
ruimte om ethische kwesties aan de kaak te stellen binnen Info Support? Heb je voorbeelden waarbij de
101
00:09:36,760 --> 00:09:41,720
feedback van medewerkers heeft geleid tot significante veranderingen in een AI-project
102
00:09:41,720 --> 00:09:48,080
of het afwijzen ervan? Ja, omdat we hier open over zijn hoop ik dat iedereen de ruimte voelt
103
00:09:48,080 --> 00:09:52,760
om ethische kwesties aan de kaak te stellen. Ik weet dat een medewerker het persoonlijk als
104
00:09:52,760 --> 00:09:58,160
vegetariër niet prettig vond om mee te werken aan een AI-project in een slachthuis. Hier is
105
00:09:58,160 --> 00:10:03,520
uiteraard direct naar geluisterd en gehandeld. Ethisch gezien past het project binnen de kaders
106
00:10:03,520 --> 00:10:08,200
van Info Support, maar persoonlijke grenzen worden dan wel gerespecteerd. Dus een medewerker
107
00:10:08,200 --> 00:10:15,200
is niet op het project gezet en er is vervanging geregeld. Het is bemoedigend te horen dat persoonlijke
108
00:10:15,200 --> 00:10:20,680
principes eveneens gerespecteerd worden binnen het bedrijf. Dit leidt me naar een bredere blik
109
00:10:20,680 --> 00:10:27,400
op de toekomst. Kijkend naar de toekomst, hoe ziet Info Support de ontwikkeling en integratie
110
00:10:27,400 --> 00:10:34,160
van generatieve AI in jullie diensten voor de komende 5 jaar? Zijn er bepaalde trends of
111
00:10:34,160 --> 00:10:40,120
technologieën waar jullie bijzonder op gebrand zijn om te volgen of te implementeren? Na je
112
00:10:40,120 --> 00:10:45,320
antwoord zal ik het interview afsluiten. De ontwikkeling en integratie van generatieve
113
00:10:45,320 --> 00:10:49,440
AI zal de aankomende jaren een vlucht nemen. Veel organisaties hebben een berg,
114
00:10:49,440 --> 00:10:54,360
zo groot als de Mount Everest, aan documenten en benutten de inhoud daar niet echt van.
115
00:10:55,360 --> 00:10:59,800
Met de komst van generatieve AI ontstaat de mogelijkheid om de inhoud toegankelijk te maken
116
00:10:59,800 --> 00:11:05,960
voor een brede doelgroep. De trend zal zijn dat veel van deze systemen gebouwd worden,
117
00:11:05,960 --> 00:11:10,960
maar wij zijn erop gebrand om die systemen juist robuust en betrouwbaar te maken. We
118
00:11:10,960 --> 00:11:16,200
doen onderzoek naar bijvoorbeeld de herleidbaarheid van de uitkomsten van generatieve AI en bronvermelding.
119
00:11:16,200 --> 00:11:21,400
De nieuwe ontwikkeling van bijvoorbeeld taalmodellen gaat rap en in een hoog tempo
120
00:11:21,400 --> 00:11:27,960
komen er nieuwe versies uit. Dat brengt uitdagingen met zich mee, want blijft je AI-systeem gebaseerd
121
00:11:27,960 --> 00:11:34,080
op generatieve AI wel werken als het fundament vervangen wordt? Wij kijken daarom naar geautomatiseerde
122
00:11:34,080 --> 00:11:40,360
testen van prompts en hoe je dit soort systemen monitort in productie. In de komende vijf jaar
123
00:11:40,360 --> 00:11:45,360
zullen er helaas ook veel onzin-applicaties worden gebouwd, gewoon omdat het technisch mogelijk is.
124
00:11:45,360 --> 00:11:52,000
De technologie wordt dan leidend en niet de bedrijfsdoelstellingen. Dit zal voor een aantal
125
00:11:52,000 --> 00:11:57,560
organisaties een dure les worden. Dat is zeker een belangrijk punt van aandacht. Bedankt voor
126
00:11:57,560 --> 00:12:04,960
dit interview. Best wel cool hoe uiteindelijk dan zo'n groot taalmodel zo'n interview kan
127
00:12:04,960 --> 00:12:13,880
afnemen. Hoe hebben we dit nou gemaakt? Kijk, het is niet met stemmen gegaan. We hebben echt een
128
00:12:13,880 --> 00:12:19,600
taalmodel gebruikt. Dus de vragen zijn geschreven en ik heb de antwoorden gegeven. Dus we hebben dit
129
00:12:19,600 --> 00:12:28,560
ingesproken alsof JGPT met daadwerkelijk spraak dit aan mij zou geven. En ik heb antwoorden die
130
00:12:28,560 --> 00:12:37,040
ik daadwerkelijk geschreven heb, heb ik ook zo nu opgenoemd in deze aflevering. Ik hoop dat je
131
00:12:37,040 --> 00:12:44,160
deze aflevering leuk en interessant vond. Zorg dan dat je je abonneert via je favoriete podcast
132
00:12:44,160 --> 00:12:46,520
app en mis geen aflevering. Dank je wel weer voor het luisteren.
133
00:12:46,520 --> 00:12:47,520
134
00:12:47,520 --> 00:12:47,520
135
00:12:47,520 --> 00:12:49,520