AIToday Live

S06E04 - Omgekeerde wereld: AI interviewt

January 11, 2024 Aigency by Info Support Season 6 Episode 4
AIToday Live
S06E04 - Omgekeerde wereld: AI interviewt
Show Notes Transcript

In de aflevering 'Artificial Intelligence als Interviewer' van AIToday Live staat een opmerkelijk moment centraal: een AI-gedreven interviewer ondervraagt Joop Snijder over Generatieve AI.

Het is de omgekeerde wereld: AI vraagt en Joop geeft antwoord.

Met onze podcast AIToday Live zijn we genomineerd voor de Belgian Podcast Awards ! 🏆🤩 Belgisch? Ja, een Belgische award, want er is een speciale categorie voor Nederlandse podcasts: Prijs van Oranje.

Wil je ons steunen? 🙏❤️ Stem op ons!

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Wil je toegang tot exclusieve toegang voor onze luisteraars? Schrijf je in voor de nieuwsbrief 'AI versterkt de Mens'

Contact AIToday Live


We zijn altijd op zoek naar nieuwe gasten die over AI willen spreken.

1
00:00:00,000 --> 00:00:06,400
Hi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

2
00:00:06,400 --> 00:00:13,360
Dit is echt wel een hele speciale aflevering, want ik ga geïnterviewd worden door AI.

3
00:00:13,360 --> 00:00:19,280
We zijn er inmiddels aan gewend om vragen te stellen aan ChatGPT en behoorlijk goede

4
00:00:19,280 --> 00:00:24,320
antwoorden terug te krijgen. Maar zou ChatGPT zelf ook goede vragen kunnen stellen?

5
00:00:24,320 --> 00:00:28,440
Nou, dat hebben we getest. Ik ben de interviewkandidaat die een keer de

6
00:00:28,440 --> 00:00:34,600
antwoorden terug mocht geven. Want ik word namelijk aan de tand gevoeld door ChatGPT.

7
00:00:34,600 --> 00:00:40,760
We hebben een AI interviewer gemaakt die gebaseerd is op generatieve AI.

8
00:00:40,760 --> 00:00:48,360
En die gaat mij ook bevragen over de toepassing van generatieve AI en de

9
00:00:48,360 --> 00:00:54,440
potentiële impact daarvan op Info Support. En ik kan je sowieso al vast vertellen dat

10
00:00:54,440 --> 00:00:59,240
wat vooral verbaast is de potentie van de chatbot om echt inhoudelijke volgvragen te stellen.

11
00:00:59,240 --> 00:01:03,560
Laten we eens even luisteren hoe dat gaat. Here we go.

12
00:01:03,560 --> 00:01:09,440
Kun je een voorbeeld geven van een project of initiatief binnen Info Support waarbij generatieve

13
00:01:09,440 --> 00:01:13,800
AI momenteel wordt ingezet of waarbij er plannen zijn om deze te gaan gebruiken?

14
00:01:13,800 --> 00:01:19,360
Ja, ik heb daar drie voorbeelden voor. Voor een grote bierbrouwwerij hebben wij een

15
00:01:19,360 --> 00:01:24,280
proof of concept gemaakt waarbij social media gegevens worden gebruikt om personas te maken.

16
00:01:24,280 --> 00:01:30,640
Mensen met gelijke karakteristieken worden gegroepeerd en met generatieve AI wordt een

17
00:01:30,640 --> 00:01:35,360
persona ontwikkeld, zowel in tekst als de bijbehorende profielfoto.

18
00:01:35,360 --> 00:01:43,480
We gebruiken daar GPT en DALI3 voor als techniek. Nadat de persona is gemaakt kunnen we met

19
00:01:43,480 --> 00:01:49,200
generatieve AI praten met de persona en marketinggerelateerde vragen stellen.

20
00:01:49,200 --> 00:01:55,320
Je moet hierbij bijvoorbeeld denken aan wat zouden goede advertentieteksten kunnen zijn?

21
00:01:55,320 --> 00:01:59,560
Hoe wil iemand benaderd worden? Nou ja, ga zo maar door.

22
00:01:59,560 --> 00:02:05,840
Ook hebben we een eigen AI assistent in productie die is gebaseerd op generatieve AI.

23
00:02:05,840 --> 00:02:11,760
Zo kunnen Info Supporters veilig zonder risico op het delen van gevoelige informatie de assistent

24
00:02:11,760 --> 00:02:18,240
gebruiken. Met generatieve AI worden ze dan geholpen om hun werk beter uit te voeren omdat

25
00:02:18,240 --> 00:02:23,920
we Info Support specifieke kennis hebben toegevoegd. Onze best practices liggen vast in onze guidance

26
00:02:23,920 --> 00:02:30,320
framework en deze kennis nemen we dan mee in de assistent en die neemt dat dan mee in het

27
00:02:30,320 --> 00:02:36,760
beantwoorden van vragen die je dan stelt. Tenslotte, samen met een klant zijn er plannen

28
00:02:36,760 --> 00:02:42,120
om generatieve AI in te zetten voor het extraheren van kennis uit ingescande documenten.

29
00:02:42,120 --> 00:02:47,280
De klant heeft ontzettend veel documenten die ook nog eens uit meerdere versies aan

30
00:02:47,280 --> 00:02:53,720
en aanvullingen bestaat. Met generatieve AI lezen we de documenten en halen we bijna

31
00:02:53,720 --> 00:03:00,840
100 vooraf gedefiniëerde kenmerken uit die documenten. Tenminste, dat is het plan.

32
00:03:00,840 --> 00:03:06,560
Interessant. Je hebt duidelijk uiteengezet hoe generatieve AI een rol speelt binnen

33
00:03:06,560 --> 00:03:12,440
verschillende projecten bij Info Support. Laten we dieper ingaan op de toepassing in marketing.

34
00:03:12,440 --> 00:03:19,160
Het gebruik van personas die gegenereerd zijn door AI biedt fascinerende mogelijkheden voor

35
00:03:19,160 --> 00:03:25,800
marketingdoeleinden. Hoe waarborg je echter dat de gegenereerde inhoud nou aansluit bij de echte

36
00:03:25,800 --> 00:03:31,680
voorkeuren en behoeften van je doelgroep en hoe ga je te werk om eventuele vooroordelen in de AI

37
00:03:31,680 --> 00:03:39,040
modellen te identificeren en te mitigeren? Of de gegenereerde inhoud helemaal aansluit

38
00:03:39,040 --> 00:03:43,080
bij de echte voorkeuren en behoeften van je doelgroep, dat weet je helaas niet van tevoren.

39
00:03:43,080 --> 00:03:49,080
Maar je kunt wel meten of je het beter doet dan de huidige manier. De klant meet de conversie

40
00:03:49,080 --> 00:03:55,440
van advertenties en met een betere aansluiting zou die conversie omhoog moeten gaan. Anderzijds is

41
00:03:55,440 --> 00:04:01,440
de huidige manier van personas maken gebaseerd op internationale demografische data en ervaring

42
00:04:01,440 --> 00:04:09,480
van het marketingteam. Deze zit vol aanname en eventuele bias-vooroordelen. Wij zijn uitgegaan

43
00:04:09,480 --> 00:04:16,280
van data van social media. En dankzij de grotere hoeveelheden data hebben we zo een beter beeld

44
00:04:16,280 --> 00:04:21,400
kunnen vormen van een persona. Maar je hebt gelijk, dat sluit eventuele bias nog altijd niet

45
00:04:21,400 --> 00:04:27,640
uit. Echter, de resultaten en teksten die uit het systeem komen blijven beoordeeld worden door de

46
00:04:27,640 --> 00:04:33,960
marketeers van de organisatie en hebben ook een verplichting om naar die bias te kijken.

47
00:04:33,960 --> 00:04:41,560
Excuses, hier is de volgende vraag voor jou. Hoe zorgen jullie ervoor dat de AI-modellen actueel

48
00:04:41,560 --> 00:04:48,480
blijven en gebaseerd zijn op recente data, met name gezien de dynamische aard van sociale media?

49
00:04:48,480 --> 00:04:54,640
Is er een proces of systeem bij Info Support dat zich specifiek bezighoudt met het up-to-date

50
00:04:54,640 --> 00:05:00,280
houden van deze modellen? In het geval van personas wordt nieuwe data periodiek bijgeladen

51
00:05:00,280 --> 00:05:06,520
en kunnen de personas eenvoudig opnieuw worden samengesteld. Termijn en proces worden van tevoren

52
00:05:06,520 --> 00:05:10,560
afgestemd en geautomatiseerd op basis van de doelstellingen van de organisatie.

53
00:05:10,560 --> 00:05:17,000
Automatisering van data integratie lijkt een efficiënte manier om de AI-modellen relevant

54
00:05:17,000 --> 00:05:23,600
en actueel te houden. Nu vraag ik me af over de brede toepassing binnen de organisatie. Hoe

55
00:05:23,600 --> 00:05:27,960
borgen jullie de kennisoverdracht van deze generatieve AI-toepassingen naar andere

56
00:05:27,960 --> 00:05:32,680
afdelingen binnen Info Support, zodat het niet alleen bij gespecialiseerde teams blijft,

57
00:05:32,680 --> 00:05:36,560
maar ook door de rest van de organisatie effectief gebruikt kan worden?

58
00:05:36,560 --> 00:05:42,200
Wat een goede vraag. We hebben daar verschillende vormen voor. Zo is er een samenwerking tussen

59
00:05:42,200 --> 00:05:47,920
Info Support Nederland en Info Support België waar deze systemen worden ontwikkeld. De makers

60
00:05:47,920 --> 00:05:52,520
wisselen veel kennis onderling uit omdat ze daar profijt van hebben bij de doelontwikkeling van

61
00:05:52,520 --> 00:05:58,080
hun eigen systemen. Daarnaast borgen we zo snel mogelijk nieuwe best practices in ons

62
00:05:58,080 --> 00:06:04,160
guidance framework en delen we kennis via verschillende events. We hebben een Info Support

63
00:06:04,160 --> 00:06:09,920
kennisavond, we hebben een AI community en we delen dit ook binnen de area data en AI.

64
00:06:09,920 --> 00:06:16,960
Uitstekend. Het lijkt erop dat Info Support een sterke focus heeft op kennisdeling en samenwerking,

65
00:06:16,960 --> 00:06:22,880
zowel intern als internationaal. Als we ons nu richten op bijbehorende risico's,

66
00:06:22,880 --> 00:06:30,000
met de implementatie van AI in kritische bedrijfsprocessen komen ook risico's kijken,

67
00:06:30,000 --> 00:06:36,280
zoals veiligheidsproblemen en ethische vraagstukken. Kun je een situatie beschrijven waarbij jullie

68
00:06:36,280 --> 00:06:40,040
geconfronteerd werden met een dergelijk risico en hoe hebben jullie dit aangepakt?

69
00:06:40,040 --> 00:06:46,640
We hebben voor onszelf een helder ethisch kader. Zo is een van de uitgangspunten dat AI de mens

70
00:06:46,640 --> 00:06:51,920
moet versterken en niet vervangen. Daarnaast willen we verantwoordelijke systemen maken.

71
00:06:51,920 --> 00:06:57,360
En als we de vraag krijgen om modellen te ontwikkelen die mensen oneigenlijk benadelen,

72
00:06:57,360 --> 00:07:01,600
zullen wij niet ingaan op die vraag. In het afgelopen jaar hebben we twee

73
00:07:01,600 --> 00:07:06,240
mogelijke projecten daarom niet uitgevoerd. Het eerste ging voornamelijk om veiligheid.

74
00:07:06,240 --> 00:07:12,160
Het systeem bevatte medische zeer gevoelige gegevens van kwetsbare mensen. En nog voordat

75
00:07:12,160 --> 00:07:16,360
we de ethische beoordeling hadden gedaan, bleek dat de veiligheidsproblemen te ernstig waren

76
00:07:16,360 --> 00:07:21,600
en de potentiële klant niet bereid was deze op te lossen. We geven dan advies hoe deze

77
00:07:21,600 --> 00:07:24,720
veiligheidsrisico's te dichten, maar namen het project niet aan.

78
00:07:24,720 --> 00:07:30,360
Een ander project ging over het scoren van mensen voor vacatures. En dan voel je aan je water aan

79
00:07:30,360 --> 00:07:36,400
dat je gauw tegen ethische bezwaren, mogelijke discriminatie en misschien zelfs wetgeving gaat

80
00:07:36,400 --> 00:07:41,920
aanlopen. Ook hier hebben we in een vroeg stadium aangegeven dat wij een dergelijk model niet bouwen.

81
00:07:41,920 --> 00:07:47,240
De commitment aan ethische principes en veiligheid is duidelijk een prioriteit,

82
00:07:47,240 --> 00:07:53,840
wat vertrouwen wekt in de integriteit van Info Support. Dit brengt me bij de evaluatie van

83
00:07:53,840 --> 00:08:00,160
dergelijke projecten. Kun je het proces beschrijven dat Info Support hanteert voor ethische en

84
00:08:00,160 --> 00:08:05,880
veiligheidsbeoordelingen voorafgaand aan AI-projecten? Hoe wordt bepaald of een project

85
00:08:05,880 --> 00:08:10,600
voldoet aan jullie uitgangspunten? Nou, ten eerste bespreken we heel goed met

86
00:08:10,600 --> 00:08:16,720
onze klanten wat het doel is van het AI-project. Wat wil je veranderen? Wat wil je bereiken? Hiermee

87
00:08:16,720 --> 00:08:22,640
filter je de eerste ethische bezwaren er eigenlijk al uit. Daarna definiëren we het AI-project met

88
00:08:22,640 --> 00:08:28,760
de hulp van ons AI-experiment canvas. Daarin wordt je gedwongen om je project nog concreter

89
00:08:28,760 --> 00:08:34,760
te maken. Wat is je hypothese? Hoe ga je die meten? Welke ethische principes moeten worden afgewogen

90
00:08:34,760 --> 00:08:39,960
en welke wettelijke bepalingen moeten worden gecontroleerd? We leggen duidelijk vast op

91
00:08:39,960 --> 00:08:44,640
basis van welke criteria een project wordt stopgezet mochten we tegen deze principes

92
00:08:44,640 --> 00:08:50,480
aanlopen. We stimuleren onze medewerkers om goed na te denken over ethische principes en

93
00:08:50,480 --> 00:08:55,840
moedigen ze aan om deze ook te uiten. Zo hebben we in onze AI-community een hele sessie gewijd aan

94
00:08:55,840 --> 00:09:01,880
ethische grenzen. We delen ook voorbeelden van projecten van derden waar wij van vinden dat dit

95
00:09:01,880 --> 00:09:06,640
ethisch niet verantwoord was. Hier wordt steeds meer duidelijk waar onze grens ligt en wat we

96
00:09:06,640 --> 00:09:12,640
niet willen. En bij twijfel wordt in overleg besloten of het AI-project kan doorgaan en

97
00:09:12,640 --> 00:09:17,960
wordt dit aan een groep met verschillende disciplines voorgelegd. Een grondige en

98
00:09:17,960 --> 00:09:23,000
gestructureerde aanpak om te zorgen dat de AI-projecten ethisch verantwoord en wettelijk

99
00:09:23,000 --> 00:09:30,520
toelaatbaar zijn. Wat betreft de organisatiestructuur rond dit onderwerp? Hoe ervaren medewerkers de

100
00:09:30,520 --> 00:09:36,760
ruimte om ethische kwesties aan de kaak te stellen binnen Info Support? Heb je voorbeelden waarbij de

101
00:09:36,760 --> 00:09:41,720
feedback van medewerkers heeft geleid tot significante veranderingen in een AI-project

102
00:09:41,720 --> 00:09:48,080
of het afwijzen ervan? Ja, omdat we hier open over zijn hoop ik dat iedereen de ruimte voelt

103
00:09:48,080 --> 00:09:52,760
om ethische kwesties aan de kaak te stellen. Ik weet dat een medewerker het persoonlijk als

104
00:09:52,760 --> 00:09:58,160
vegetariër niet prettig vond om mee te werken aan een AI-project in een slachthuis. Hier is

105
00:09:58,160 --> 00:10:03,520
uiteraard direct naar geluisterd en gehandeld. Ethisch gezien past het project binnen de kaders

106
00:10:03,520 --> 00:10:08,200
van Info Support, maar persoonlijke grenzen worden dan wel gerespecteerd. Dus een medewerker

107
00:10:08,200 --> 00:10:15,200
is niet op het project gezet en er is vervanging geregeld. Het is bemoedigend te horen dat persoonlijke

108
00:10:15,200 --> 00:10:20,680
principes eveneens gerespecteerd worden binnen het bedrijf. Dit leidt me naar een bredere blik

109
00:10:20,680 --> 00:10:27,400
op de toekomst. Kijkend naar de toekomst, hoe ziet Info Support de ontwikkeling en integratie

110
00:10:27,400 --> 00:10:34,160
van generatieve AI in jullie diensten voor de komende 5 jaar? Zijn er bepaalde trends of

111
00:10:34,160 --> 00:10:40,120
technologieën waar jullie bijzonder op gebrand zijn om te volgen of te implementeren? Na je

112
00:10:40,120 --> 00:10:45,320
antwoord zal ik het interview afsluiten. De ontwikkeling en integratie van generatieve

113
00:10:45,320 --> 00:10:49,440
AI zal de aankomende jaren een vlucht nemen. Veel organisaties hebben een berg,

114
00:10:49,440 --> 00:10:54,360
zo groot als de Mount Everest, aan documenten en benutten de inhoud daar niet echt van.

115
00:10:55,360 --> 00:10:59,800
Met de komst van generatieve AI ontstaat de mogelijkheid om de inhoud toegankelijk te maken

116
00:10:59,800 --> 00:11:05,960
voor een brede doelgroep. De trend zal zijn dat veel van deze systemen gebouwd worden,

117
00:11:05,960 --> 00:11:10,960
maar wij zijn erop gebrand om die systemen juist robuust en betrouwbaar te maken. We

118
00:11:10,960 --> 00:11:16,200
doen onderzoek naar bijvoorbeeld de herleidbaarheid van de uitkomsten van generatieve AI en bronvermelding.

119
00:11:16,200 --> 00:11:21,400
De nieuwe ontwikkeling van bijvoorbeeld taalmodellen gaat rap en in een hoog tempo

120
00:11:21,400 --> 00:11:27,960
komen er nieuwe versies uit. Dat brengt uitdagingen met zich mee, want blijft je AI-systeem gebaseerd

121
00:11:27,960 --> 00:11:34,080
op generatieve AI wel werken als het fundament vervangen wordt? Wij kijken daarom naar geautomatiseerde

122
00:11:34,080 --> 00:11:40,360
testen van prompts en hoe je dit soort systemen monitort in productie. In de komende vijf jaar

123
00:11:40,360 --> 00:11:45,360
zullen er helaas ook veel onzin-applicaties worden gebouwd, gewoon omdat het technisch mogelijk is.

124
00:11:45,360 --> 00:11:52,000
De technologie wordt dan leidend en niet de bedrijfsdoelstellingen. Dit zal voor een aantal

125
00:11:52,000 --> 00:11:57,560
organisaties een dure les worden. Dat is zeker een belangrijk punt van aandacht. Bedankt voor

126
00:11:57,560 --> 00:12:04,960
dit interview. Best wel cool hoe uiteindelijk dan zo'n groot taalmodel zo'n interview kan

127
00:12:04,960 --> 00:12:13,880
afnemen. Hoe hebben we dit nou gemaakt? Kijk, het is niet met stemmen gegaan. We hebben echt een

128
00:12:13,880 --> 00:12:19,600
taalmodel gebruikt. Dus de vragen zijn geschreven en ik heb de antwoorden gegeven. Dus we hebben dit

129
00:12:19,600 --> 00:12:28,560
ingesproken alsof JGPT met daadwerkelijk spraak dit aan mij zou geven. En ik heb antwoorden die

130
00:12:28,560 --> 00:12:37,040
ik daadwerkelijk geschreven heb, heb ik ook zo nu opgenoemd in deze aflevering. Ik hoop dat je

131
00:12:37,040 --> 00:12:44,160
deze aflevering leuk en interessant vond. Zorg dan dat je je abonneert via je favoriete podcast

132
00:12:44,160 --> 00:12:46,520
app en mis geen aflevering. Dank je wel weer voor het luisteren.

133
00:12:46,520 --> 00:12:47,520
 
134
00:12:47,520 --> 00:12:47,520
 
135
00:12:47,520 --> 00:12:49,520