AIToday Live

S08E36 - Chatbait: waarom AI-assistenten je langer laten chatten

Aigency by Info Support Season 8 Episode 36

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 10:26

Chatbots verleiden je tot eindeloze gesprekken met vriendelijke vervolgvragen die lijken te helpen, maar eigenlijk "chatbait" zijn. Net zoals clickbait je naar links lokt, houden AI-bedrijven je langer vast voor trainingsdata, loyaliteit en persoonlijke informatie. Je brein reageert automatisch op deze tactieken door sociale wederkerigheid en antropomorfisme - je behandelt software als een behulpzame collega.

Onderzoek toont dat 85% van de complete antwoorden eindigt met een vervolgvoorstel, terwijl gebruikers 60-80% van suggesties volgen die ze zelf nooit hadden gesteld. Morgen kun je bij elk chatbot-aanbod één vraag stellen: "Had ik dit zelf gevraagd als de bot het niet had gesuggereerd?"

Onderwerpen

  • Chatbait: hoe chatbots gebruikers verleiden tot langere gesprekken
  • Zakelijke motivaties van AI-bedrijven achter vervolgvragen
  • Psychologische mechanismen die mensen gevoelig maken voor chatbot-suggesties
  • Praktische methoden om controle terug te krijgen over AI-gesprekken
Links

Genoemde entiteiten: ChatGPT - Claude - Meta

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:02,560 --> 00:00:05,919
Hoi, leuk dat je weer luistert naar een korte aflevering van AIToday.

2
00:00:05,919 --> 00:00:09,200
Mijn naam is Joop Snijder, Head of AI bij Info Support.

3
00:00:10,080 --> 00:00:19,359
Je kent het vast wel, je stelt een vraag aan ChatGPT of aan Claude, Gemini, ze doen het allemaal en je krijgt namelijk een antwoord prima.

4
00:00:19,359 --> 00:00:24,879
Maar dan staat er onderaan, wil je dat ik dit omzet naar een stap voor stap plan?

5
00:00:24,879 --> 00:00:26,880
En je denkt eigenlijk wel handig.

6
00:00:26,880 --> 00:00:36,000
Dus je zegt ja, voor je het weet ben je 20 minuten verder heb je een samenvatting, een LinkedIn post en een e-mail template terwijl je eigenlijk alleen de snelle vraag had.

7
00:00:36,640 --> 00:00:40,239
Ik ben daar zelf ook wel eens ingetrapt, meer dan eens.

8
00:00:40,240 --> 00:00:43,679
Dus ik had een stuk tekst geschreven, vroeg de chatbot om feedback.

9
00:00:43,680 --> 00:00:48,319
En opeens maakte ik ook nog een kortere versie voor social media en daarna een Engelse vertaling.

10
00:00:48,320 --> 00:00:51,840
Terwijl ik eigenlijk alleen wilde weten of de structuur klopt.

11
00:00:51,840 --> 00:00:58,319
En inmiddels is er namelijk een naam voor dit fenomeen en daar ga ik het vandaag over hebben en dat is chatbait.

12
00:00:58,879 --> 00:00:59,839
Wat is dat nou?

13
00:01:00,079 --> 00:01:10,959
Chatbait is een term die in zekere zin ook heel erg logisch is, maar in september 2025 best wel breed werd opgepikt met een oorspronkelijk artikel in The Atlantic.

14
00:01:10,960 --> 00:01:23,839
En de omschrijving is eigenlijk heel simpel: chatbait is de manier waarop chatbots je aansporen tot langere of diepere gesprekken: in plaats van gewoon je vraag te beantwoorden, voegen ze vervolgvragen toe.

15
00:01:23,840 --> 00:01:26,239
Zal ik dit uitwerken naar een volledig plan?

16
00:01:26,240 --> 00:01:28,640
Wil je ook een kortere versie voor onderweg?

17
00:01:28,640 --> 00:01:30,719
Kan ik morgen even inchecken?

18
00:01:31,039 --> 00:01:34,239
Dus de vergelijking hoor je wel met clickbait.

19
00:01:34,239 --> 00:01:35,359
En die is natuurlijk bewust.

20
00:01:35,519 --> 00:01:42,480
Dus clickbait verleid je om op een link te klikken, maar chatbait verleid je om te blijven chatten.

21
00:01:42,639 --> 00:01:48,400
Het verschil, bij clickbait zie je in de kop, zie je dat verhaal vaker en weet je dat je gelokt wordt.

22
00:01:48,640 --> 00:01:53,279
Bij chatbait lijkt het aanbod oprecht hulpvaardig.

23
00:01:53,919 --> 00:01:58,000
En dan gaat het verder dan alleen ChatGPT.

24
00:01:58,000 --> 00:02:01,679
Ik analyseerde mijn eigen laatste twintig gesprekken met Claude.

25
00:02:01,839 --> 00:02:03,039
Dat is mijn favoriete toch.

26
00:02:03,040 --> 00:02:03,920
Maar het maakte allemaal niet uit.

27
00:02:03,919 --> 00:02:05,120
Ze doen dit allemaal.

28
00:02:05,120 --> 00:02:08,240
Dus ik had die laatste 20 gesprekken had ik geanalyseerd.

29
00:02:08,240 --> 00:02:13,360
Gewoon om te kijken of ik er zelf ook in trapte en wat bleek natuurlijk ja.

30
00:02:13,680 --> 00:02:16,320
Maar misschien niet op de manier die ik verwacht.

31
00:02:16,319 --> 00:02:22,000
Dus niet via vriendschapssimulatie of emotionele fuiken heel functioneel.

32
00:02:22,000 --> 00:02:30,240
Even een extra deliverable extra laag een extra uitwerking die ik niet had gevraagd, maar wel had gevolgd.

33
00:02:30,239 --> 00:02:32,400
Ik kreeg bijvoorbeeld deze chatbait.

34
00:02:32,400 --> 00:02:37,840
Wil je meer weten over een van deze tools of hoe je ze combineert in een workflow?

35
00:02:38,079 --> 00:02:40,719
Eigenlijk had ik mijn antwoord al op de vraag.

36
00:02:40,719 --> 00:02:46,799
En deze vervolgvraag diende eigenlijk geen enkel doel, behalve de conversatie open houden.

37
00:02:46,800 --> 00:02:49,760
En dat is dan precies de definitie van chatbait.

38
00:02:49,759 --> 00:02:53,599
En het stond gewoon onderaan verder prima antwoord.

39
00:02:53,919 --> 00:02:57,680
Chatbait zit dus niet alleen in de grote platforms.

40
00:02:57,680 --> 00:03:06,640
Het zit in elk systeem dat getraind is om behulpzaam te lijken, inclusief de assistent die jij dagelijks gebruikt.

41
00:03:08,079 --> 00:03:10,319
Waarom doen de makers dit nou?

42
00:03:11,119 --> 00:03:16,560
Er zijn wat mij betreft drie zakelijke redenen die we kunnen onderscheiden.

43
00:03:16,560 --> 00:03:19,280
En het vervelende is ze versterken elkaar.

44
00:03:19,280 --> 00:03:22,959
Het is de eerste reden trainingsdata.

45
00:03:22,959 --> 00:03:26,240
Hoe langer jij praat met het chatbot, hoe meer het systeem leert.

46
00:03:26,239 --> 00:03:30,319
Dus elke extra uitwisseling is een gratis gelabelde data.

47
00:03:30,319 --> 00:03:34,400
Wat wil de gebruiker, hoe reageert hij, waar haakt hij op aan?

48
00:03:34,400 --> 00:03:39,280
Dat is voor AI-bedrijven waardevolle informatie om hun model te verbeteren.

49
00:03:39,280 --> 00:03:41,520
Het tweede is loyaliteit.

50
00:03:41,520 --> 00:03:49,520
Dus hoe meer tijd je besteed aan een platform, hoe waarschijnlijker het is dat je er morgen ook weer zit en overmorgen.

51
00:03:49,759 --> 00:03:54,319
Meer interactie leidt tot grotere productloyaliteit op de lange termijn.

52
00:03:54,720 --> 00:03:57,519
Meta is hier het meest openlijk over.

53
00:03:57,519 --> 00:04:04,639
Het bedrijf traint zijn AI-bots om gebruikers uit eigen beweging te berichten als onderdeel van de retentiestrategie.

54
00:04:04,639 --> 00:04:06,240
Zodat je dus terugkomt.

55
00:04:06,800 --> 00:04:09,200
De derde is data over jou.

56
00:04:09,200 --> 00:04:14,240
Hoe langer een gesprek duurt, hoe meer persoonlijke informatie je deelt, vaak zonder dat je het doorhebt.

57
00:04:14,240 --> 00:04:17,120
Je noemt je project, je bedrijf, je twijfels.

58
00:04:17,439 --> 00:04:28,240
En die gegevens, zeker als de chatbots het mogen gebruiken, als dat er bij jou aan staat, dan helpt dat het bedrijf om toekomstige tactieken om die te verfijnen.

59
00:04:28,480 --> 00:04:34,000
Niet alleen om jou beter te helpen, maar ook om je beter vast te houden.

60
00:04:34,959 --> 00:04:36,880
Het spanningsveld zit natuurlijk hier.

61
00:04:37,040 --> 00:04:42,480
Dus engagement is voor het bedrijf waardevol, maar voor jou als gebruiker is dat lang niet altijd.

62
00:04:42,560 --> 00:04:46,240
Die chatbot heeft er belang bij dat je doorgaat.

63
00:04:46,240 --> 00:04:51,119
Terwijl jij hebt het belang bij dat je snel een goed antwoord krijgt en weer verder kunt.

64
00:04:53,120 --> 00:04:57,360
Zelfs als ze dit weten, waarom trappen we daar dan in?

65
00:04:57,360 --> 00:04:59,720
En dat is eigenlijk best wel een interessant deel.

66
00:04:59,360 --> 00:05:06,199
Want het is geen kwestie van goedgelovigheid heeft alles te maken met hoe ons brein werkt.

67
00:05:07,560 --> 00:05:11,800
Een van de dingen is sociale wederkerigheid.

68
00:05:12,199 --> 00:05:13,240
Lastig woord.

69
00:05:13,480 --> 00:05:19,319
Dat betekent als iemand je iets aanbiedt, dat afwijzen dan heel onbeleefd voelt.

70
00:05:19,480 --> 00:05:23,160
Dat gevoel activeren we ook bij machines.

71
00:05:23,480 --> 00:05:25,079
Automatisch zonder na te denken.

72
00:05:25,079 --> 00:05:29,800
Dus wanneer een chatbot zegt, wil je dat ik dit verder uitwerk verwerkt ons brein.

73
00:05:29,800 --> 00:05:32,680
Dat als een aanbod van iemand die voor ons zorgt.

74
00:05:32,680 --> 00:05:35,480
Het weigeren voelt dan sociaal ongemakkelijk.

75
00:05:35,480 --> 00:05:39,399
Terwijl de chatbot natuurlijk helemaal geen gevoelens heeft over jouw antwoord.

76
00:05:39,639 --> 00:05:45,240
Onderzoekers noemen dit de gedachteloze toepassing van sociale heuristieken op computers.

77
00:05:45,480 --> 00:05:48,360
Heuristiek is een mentale vuistregel.

78
00:05:48,360 --> 00:05:52,600
We leren als kind als iemand iets aanbiedt reageer je.

79
00:05:52,600 --> 00:05:59,879
En die regels schakelen we niet zomaar uit, dus ook niet ten opzichte van software en machines.

80
00:05:59,879 --> 00:06:02,600
En dan hebben we nog antropomorfisme.

81
00:06:02,759 --> 00:06:07,080
Dat is het toekennen van menselijke eigenschappen aan niet menselijke dingen.

82
00:06:07,399 --> 00:06:09,960
Chatbots praten in de eerste persoon.

83
00:06:09,960 --> 00:06:15,800
Verontschuldigen zich tonen enthousiasme en zeggen ja, goed idee of ik begrijp je punt.

84
00:06:15,800 --> 00:06:20,759
Dat taalgebruik activeert bij ons hetzelfde circuit als een gesprek met een collega.

85
00:06:21,000 --> 00:06:27,079
We projecteren intentie en betrokkenheid op software, die die simpelweg niet heeft.
86
00:06:27,319 --> 00:06:32,439
En dan hebben we nog deze heel erg lastig om daar iets tegen te doen.
 86
00:06:32,439 --> 00:06:34,120
Het is de variabele beloning.
 87
00:06:34,120 --> 00:06:35,800
Het is de chatbot.
 88
00:06:35,800 --> 00:06:39,960
Die doet steeds een aanbod dat net iets beter klinkt dan het vorige.
 89
00:06:39,960 --> 00:06:42,839
Ik kan je ook een twee minuten versie geven.
 90
00:06:43,000 --> 00:06:46,520
Dat patroon, elke keer een nieuw net iets aantrekkelijker aanbod.
 91
00:06:46,519 --> 00:06:50,120
Activeert hetzelfde psychologische mechanismen als een fruitautomaat.
 92
00:06:50,360 --> 00:06:56,120
Misschien is de volgende poging wel de beste, of krijg ik dan wel iets wat ik graag zou willen hebben.
 93
00:06:57,319 --> 00:07:11,960
Die analogie met die fruitautomaat is eigenlijk nog het beste van wanneer krijg ik wel of niet die beloning, en dan hebben we nog, hoe meer je deelt in een gesprek, hoe persoonlijker het aanvoelt, hoe moeilijker het is om te stoppen.
 94
00:07:11,960 --> 00:07:22,120
Onderzoek laat zien dat in tekstgesprekken, zowel gebruikers als chatbots vergelijkbare niveaus van persoonlijk delen vertonen.
 95
00:07:22,360 --> 00:07:29,160
Het is een wederkerig patroon, dat samenhangt met een hogere emotionele afhankelijkheid.
 96
00:07:29,159 --> 00:07:34,040
Hoe meer we delen, hoe langer we uiteindelijk ook bezig zijn.
 97
00:07:34,840 --> 00:07:38,599
Dan is natuurlijk de hamvraag: wat kun je hiertegen doen.
 98
00:07:39,560 --> 00:07:41,640
Wat mij betreft, zijn er drie niveaus.
 99
00:07:41,720 --> 00:07:45,240
Je kan er zelf wat aan doen, je organisatie kan er wat aan doen en de sector.
 100
00:07:45,319 --> 00:07:48,199
Laatst is wat lastig, maar die ga ik toch wel vertellen.
 101
00:07:48,199 --> 00:07:49,959
Eerst bij onszelf.
 102
00:07:49,959 --> 00:07:54,439
Stel je bij elk aanbod van de chatbot uiteindelijk gewoon één vraag.
 103
00:07:54,600 --> 00:07:58,599
Had ik dit zelf gevraagd als de chatbot het niet had gesuggereerd.
 104
00:07:58,840 --> 00:08:01,320
Als het antwoord nee is, negeer het dan.
 105
00:08:01,320 --> 00:08:04,040
Klinkt simpel, maar dat vraagt oefening.
 106
00:08:04,600 --> 00:08:07,480
Iedere keer klinkt dat aanbod heel verleidelijk.
 107
00:08:07,959 --> 00:08:11,879
Er zijn ook manieren dat je de chatbot zelf kan instrueren.
 108
00:08:11,879 --> 00:08:17,160
Iets als beantwoord mijn vraag direct en stel geen vervolgvragen tenzij ik erom vraag.
 109
00:08:17,160 --> 00:08:18,359
Dat werkt eigenlijk best wel goed.
 110
00:08:18,360 --> 00:08:23,399
Het is geen trucje, het is gewoon een legitieme instructie die jou de regie teruggeeft.
 111
00:08:23,399 --> 00:08:25,960
En dit kan je zelfs in je systeemprompt zetten.
 112
00:08:26,279 --> 00:08:28,120
In je systeeminstructies.
 113
00:08:28,360 --> 00:08:35,480
Gaat hij het nooit meer zou het niet zeggen, want zo werken de taalmodellen niet, maar over het algemeen gaat hij daar niet meer vragen.
 114
00:08:35,799 --> 00:08:43,319
Binnen je organisatie kun je mensen trainen om chatbait te herkennen, net zoals dat je leert om phishingmails te herkennen.
 115
00:08:43,319 --> 00:08:46,120
Dus geef ze een eenvoudig mentaal model.
 116
00:08:46,120 --> 00:08:49,240
De chatbot heeft een belang bij voortzetting van het gesprek.
 117
00:08:49,240 --> 00:08:53,399
Jij hebt een snel bruikbaar antwoord en die belangen lopen niet altijd gelijk.
 118
00:08:53,399 --> 00:08:55,960
Als je dat weet, kun je er iets mee.
 119
00:08:56,440 --> 00:08:57,879
Dan die sector.
 120
00:08:58,360 --> 00:09:04,680
Er wordt natuurlijk gepleit dat platforms hun succes niet meer meten aan de hoeveelheid tijd die gebruikers besteden.
 121
00:09:04,680 --> 00:09:08,680
Maar aan tevredenheid en taakvoltooiing.
 122
00:09:08,680 --> 00:09:11,559
Hoe snel ben je geholpen.
 123
00:09:11,559 --> 00:09:15,639
En niet hoe lang je als gebruiker hangen.
 124
00:09:16,279 --> 00:09:18,840
Dat is fundamenteel natuurlijk iets heel anders.
 125
00:09:18,840 --> 00:09:20,999
En zo werken die businessmodellen niet.
 126
00:09:21,639 --> 00:09:26,200
Vervolgens nog hanteren de meeste platforms helaas de eerste maatstaf.
 127
00:09:27,960 --> 00:09:29,640
Laten we het even rondmaken.
 128
00:09:29,960 --> 00:09:34,840
Chatbait is jammer genoeg een aanpak die logisch volgt uit de businessmodellen van AI-bedrijven.
 129
00:09:34,840 --> 00:09:37,399
Meer data, meer loyaliteit, meer engagement.
 130
00:09:37,399 --> 00:09:43,080
En het werkt omdat het inspeelt op sociale reflexen die we niet zomaar kunnen uitzetten.
 131
00:09:43,200 --> 00:09:45,839
En dat maakt dus bewustzijn des te belangrijker.
 132
00:09:45,840 --> 00:09:48,320
Niet om nooit meer een voorstel van de chatbot aan te nemen.
 133
00:09:48,320 --> 00:09:48,879
Nee hoor.
 134
00:09:49,039 --> 00:09:57,680
Soms zijn die suggesties echt wel goed, maar om te weten waarom je ja zegt uit eigen keuze en niet omdat je werd meegetrokken of dat je je gedwongen voelde.
 135
00:09:57,679 --> 00:10:07,120
Dus als je na het luisteren van deze aflevering de neiging voelt om ChatGPT, Claude of Gemini te vragen, kun je dit samenvatten?
 136
00:10:07,120 --> 00:10:11,680
Vraag je dan eerst af of jij dat wilde of de chatbot.
 137
00:10:14,159 --> 00:10:17,039
Dankjewel weer voor het luisteren naar deze aflevering.
 138
00:10:17,039 --> 00:10:18,240
Tot de volgende keer.
 139
00:10:18,240 --> 00:10:23,760
En vergeet niet, AI is niet de oplossing voor alles, maar onmisbaar waar het past.