1
00:00:00,000 --> 00:00:05,280
Hoi, leuk dat je weer luistert naar een korte aflevering van AIToday Live.
2
00:00:05,280 --> 00:00:07,600
Mijn naam is Joop Snijder, CTO bij Aigency.
3
00:00:07,600 --> 00:00:13,600
En vandaag ga ik het hebben over het begrip Hallucinaties en AI.
4
00:00:13,600 --> 00:00:20,760
In het tijdperk waarin de grenzen van kunstmatige intelligentie steeds verder worden verlegd,
5
00:00:20,760 --> 00:00:28,000
komt er een term langs die zowel fascinatie als wat mij betreft verwarring oproept.
6
00:00:28,000 --> 00:00:30,360
Dat zijn namelijk hallucinaties.
7
00:00:30,360 --> 00:00:36,120
Hallucinaties van chatbots zoals ChatGPT, Googlebot, je kent ze wel.
8
00:00:36,120 --> 00:00:42,520
Deze term wordt gebruikt om de neiging van AI modellen om incorrect gegenereerde informatie
9
00:00:42,520 --> 00:00:43,520
te beschrijven.
10
00:00:43,520 --> 00:00:49,360
En ik geloof sterk dat het tijd is om deze beschrijving te herzien, die van de hallucinatie.
11
00:00:49,360 --> 00:00:56,680
De discussie rond AI en zijn vermogens raakt aan essentiële vragen over onze eigen menselijkheid
12
00:00:56,680 --> 00:00:58,120
en hoe wij de wereld ervaren.
13
00:00:58,120 --> 00:01:05,200
Want wanneer mensen de term hallucinatie gebruiken met betrekking tot chatbots, bedoelen ze hun
14
00:01:05,200 --> 00:01:11,680
vermogen om antwoorden op vragen te verzinnen.
15
00:01:11,680 --> 00:01:16,840
Als je een chatbot vraagt een artikel over een onderwerp te schrijven en referenties
16
00:01:16,840 --> 00:01:22,400
op te nemen, kunnen sommige van de citaten die het geeft, complete verzinsels zijn.
17
00:01:22,400 --> 00:01:25,800
De bronnen bestaan simpelweg niet en hebben ook nooit bestaan.
18
00:01:25,800 --> 00:01:32,040
Wanneer je biografische informatie over een echte persoon opvraagt, kan een chatbot informatie
19
00:01:32,040 --> 00:01:34,960
teruggeven die eenvoudigweg nonsens is.
20
00:01:34,960 --> 00:01:39,160
Alsof het deze uit het niets heeft geplukt en als feiten presenteert.
21
00:01:39,160 --> 00:01:45,240
Probeer maar eens over jezelf te vragen welke functie je binnen jouw bedrijf hebt.
22
00:01:45,240 --> 00:01:48,880
Grote kans dat dat iets heel anders is dan de werkelijkheid.
23
00:01:48,880 --> 00:01:57,200
Dit vermogen om onjuiste informatie te genereren wordt nu een hallucinatie genoemd.
24
00:01:57,200 --> 00:02:02,560
Maar het gebruik van die term in die context is een gevaarlijke misvatting over de toestand
25
00:02:02,560 --> 00:02:08,240
van kunstmatige intelligentie en de relatie ervan met wat mensen doen als ze hallucineren.
26
00:02:08,240 --> 00:02:13,760
Kijk op Wikipedia voor een definitie van hallucinatie en je krijgt dit.
27
00:02:13,760 --> 00:02:19,800
Een hallucinatie is een niet-zintuigelijke beleving die niet overeenkomt met wat er in
28
00:02:19,800 --> 00:02:22,440
de fysieke werkelijkheid gebeurt.
29
00:02:22,440 --> 00:02:28,720
Anders gezegd, een hallucinatie is een waarneming waarbij de prikkel uit de buitenwereld ontbreekt.
30
00:02:28,720 --> 00:02:39,200
Bij een hallucinatie proeft, ziet, voelt of ruikt men zaken die niet in de buitenwereld
31
00:02:39,200 --> 00:02:40,200
voorkomen.
32
00:02:41,000 --> 00:02:46,720
Het is duidelijk dat je zintuigen betrokken zijn bij een hallucinatie en daar loopt het
33
00:02:46,720 --> 00:02:49,600
mank bij het gebruik van de term voor AI.
34
00:02:49,600 --> 00:02:55,920
Bij de AI is er geen zintuigelijke waarneming door een taalmodel.
35
00:02:55,920 --> 00:02:59,080
Sterker nog, er is niet eens een begripsvorming.
36
00:02:59,080 --> 00:03:05,560
AI functioneert op basis van statistische correlaties binnen enorme datasets en mist
37
00:03:05,560 --> 00:03:12,440
de fysieke ervaring en de directe verbondenheid met de wereld die centraal staan in onze menselijke
38
00:03:12,440 --> 00:03:13,440
ervaring.
39
00:03:13,440 --> 00:03:19,800
Het label hallucinatie voor AI-fouten negreert dit fundamentele verschil.
40
00:03:19,800 --> 00:03:24,280
Dit onderscheid is niet slechts een kwestie van semantiek, daar heb ik ook een hekel aan,
41
00:03:24,280 --> 00:03:29,440
maar het raakt aan de kern van mijn begrip van AI en hoe we deze technologie integreren
42
00:03:29,440 --> 00:03:30,440
in onze samenleving.
43
00:03:30,440 --> 00:03:38,000
Door AI-fouten als 'hallucinaties' te bestempelen, vrees ik dat we het vermenselijken van de technologie
44
00:03:38,000 --> 00:03:43,680
bevorderen die ons begrip van wat AI werkelijk kan en moet doen, vertroebelt.
45
00:03:43,680 --> 00:03:50,320
We projecteren menselijke eigenschappen op systemen die fundamenteel anders zijn, wat
46
00:03:50,320 --> 00:03:55,600
kan leiden tot misverstanden over de capaciteiten en beperkingen van deze technologieën.
47
00:03:55,600 --> 00:04:02,280
Nu zie ik het echte gevaar niet zozeer in de zogenaamde hallucinaties van AI, maar in
48
00:04:02,280 --> 00:04:07,640
het onvermogen om de mogelijkheden en beperkingen van AI binnen de juiste context te zien.
49
00:04:07,640 --> 00:04:14,080
Als we niet erkennen dat de fouten van AI voortkomen uit een statistische aard en niet
50
00:04:14,080 --> 00:04:21,920
uit de vorm van bewustzijn, dan creëren we, nee ik moet zeggen riskeren we, dat we oplossingen
51
00:04:21,920 --> 00:04:26,200
bouwen die niet aansluiten bij onze menselijke ervaringen en behoeften.
52
00:04:26,200 --> 00:04:30,440
Dit kan ons uiteindelijk minder menselijk maken.
53
00:04:30,440 --> 00:04:37,200
Dan worden wij gedwongen om ons aan te passen aan de beperkingen van de technologie in plaats
54
00:04:37,200 --> 00:04:39,760
van dat de technologie ons dient.
55
00:04:39,760 --> 00:04:44,000
Wat mij betreft het belangrijkste is juist van die technologie.
56
00:04:44,000 --> 00:04:49,560
Dus de toekomst van AI in onze samenleving is rijk aan potentieel.
57
00:04:49,560 --> 00:04:56,200
Wat het allemaal kan, maar het vereist van ons een zorgvuldige en geïnformeerde benadering.
58
00:04:56,200 --> 00:05:01,320
We moeten technologie ontwikkelen met een helder begrip van wat het kan en niet kan
59
00:05:01,320 --> 00:05:03,760
en hoe het zich verhoudt tot onze menselijke ervaring.
60
00:05:03,760 --> 00:05:10,200
Dit betekent afstand nemen van misleidende termen zoals hallucinaties en AI erkennen
61
00:05:10,200 --> 00:05:17,840
als een krachtig hulpmiddel dat, indien correct gebruikt, onze samenleving kan verrijken en
62
00:05:17,840 --> 00:05:21,240
die onze menselijke ervaringen versterken en verbeteren.
63
00:05:21,240 --> 00:05:25,680
Ik ben heel benieuwd wat jij hiervan vindt.
64
00:05:25,680 --> 00:05:31,960
Laat je comments achter op de socials, LinkedIn of mail het ons.
65
00:05:31,960 --> 00:05:34,480
Ik ben in ieder geval heel erg benieuwd naar jouw reactie.
66
00:05:34,480 --> 00:05:36,240
Dank je wel weer voor het luisteren.
67
00:05:36,240 --> 00:05:42,240
-