
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S06E44 - De meeste algoritmes deugen
In deze aflevering van AIToday Live staat het thema 'algoritmes en hun rol in ons dagelijks leven' centraal. De discussie wordt gevoerd rondom de stelling dat de meeste algoritmes deugen, geïnspireerd door het boek 'De meeste mensen deugen' van Rutger Bregman.
Er wordt verkend hoe algoritmes, net als mensen, vaak ten onrechte bekritiseerd worden vanwege de acties van enkele. Met voorbeelden uit het dagelijks leven, zoals eenvoudige als-dan-processen en complexere AI-modellen, wordt de positieve impact van algoritmes belicht.
Tegelijkertijd wordt de noodzaak van zorgvuldigheid en verantwoordelijkheid in het ontwerp en de toepassing van algoritmes met grote impact benadrukt.
Links
- Boek: De meeste mensen deugen (https://decorrespondent.nl/cp/demeestemensendeugen)
Doe mee met de 4e Community of Practice voor Generatieve AI op Hogeschool Windesheim! Mis het niet en schrijf je gratis in.
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:06,760
Hoi, welkom bij een nieuwe aflevering van AIToday Live. Mijn naam is Joop Snijder, CTO bij Aigency.
2
00:00:06,760 --> 00:00:14,160
Vandaag gaan we het hebben over algoritmes en hun rol in ons dagelijks leven. Ik wil
3
00:00:14,160 --> 00:00:20,280
namelijk de stelling deponeren dat de meeste algoritmes deugen. Dit klinkt je misschien
4
00:00:20,280 --> 00:00:26,600
wat bekend in de oren, want we hebben natuurlijk ook een boek 'De meeste mensen deugen'. En
5
00:00:26,600 --> 00:00:33,320
Rutger Bregman heeft dat geschreven. En in zijn boek 'De meeste mensen deugen' stelt hij dat
6
00:00:33,320 --> 00:00:39,080
de meeste mensen van natuur goed zijn en dat onze maatschappij te vaak wordt gedreven door
7
00:00:39,080 --> 00:00:46,080
negatieve vooroordelen en angst. Dit principe kunnen we ook toepassen op algoritmes. Hoewel
8
00:00:46,080 --> 00:00:51,120
er veel aandacht is voor negatieve kanten en de fouten die algoritmes kunnen maken,
9
00:00:51,120 --> 00:00:56,580
is het belangrijk om te onthouden dat de meeste algoritmes goed functioneren en juist
10
00:00:56,580 --> 00:01:01,800
zijn ontworpen met de beste intenties. En net zoals Bregman betoogt dat mensen vaak ten onrechte
11
00:01:01,800 --> 00:01:07,200
als slecht worden gezien vanwege de acties van enkele, kunnen we ook stellen dat algoritmes
12
00:01:07,200 --> 00:01:14,320
vaak ten onrechte worden bekritiseerd vanwege een paar slechte voorbeelden. De meeste algoritmes,
13
00:01:14,320 --> 00:01:20,720
net als de meeste mensen, deugen. Ze zijn ontworpen om ons te helpen en ons leven gemakkelijker te
14
00:01:20,720 --> 00:01:26,560
maken. Laten we beginnen met een eenvoudig voorbeeld uit de keuken. Stel je voor dat je een
15
00:01:26,560 --> 00:01:33,240
heerlijke maaltijd wilt bereiden. De data kun je zien als de ingrediënten, de rauwe groenten,
16
00:01:33,240 --> 00:01:40,720
kruiden en vlees of tofu die je gaat gebruiken. Het algoritme is dan het recept, de instructies
17
00:01:40,720 --> 00:01:47,040
die je volgt om de ingrediënten om te toveren in een smakelijk gerecht. Het model is het eindresultaat,
18
00:01:47,040 --> 00:01:53,200
de maaltijd zelf. Net zoals een kok de kwaliteit van het gerecht bepaalt door zijn of haar vaardigheden
19
00:01:53,200 --> 00:01:58,600
en ervaring, bepaalt een data scientist samen met de opdrachtgever de kwaliteit van het model.
20
00:01:58,600 --> 00:02:04,720
Het beste recept en de meest verse ingrediënten kunnen nog steeds leiden tot een teleurstellende
21
00:02:04,720 --> 00:02:11,760
maaltijd als de kok niet weet wat hij of zij doet. Evenzo kan een krachtig algoritme rijke
22
00:02:11,760 --> 00:02:17,760
data slechte resultaten opleveren zonder de juiste expertise. Het is ook belangrijk om te begrijpen
23
00:02:17,760 --> 00:02:24,960
dat niet alle algoritmes geavanceerde AI modellen zijn. Sommige algoritmes zijn gewoon simpele
24
00:02:24,960 --> 00:02:30,720
als-dan-processen. Zoals de lampen die in huis automatisch uitgaan wanneer de laatste persoon
25
00:02:30,720 --> 00:02:36,480
is vertrokken. Deze simpele algoritmes zijn vaak heel handig in ons leven. Zo zijn er nog meer
26
00:02:36,480 --> 00:02:42,320
eenvoudige als-dan-algoritmes. En hoewel we vaak gefascineerd zijn door de complexiteit
27
00:02:42,320 --> 00:02:48,440
van machine learning en kunstmatige intelligentie, spelen juist deze eenvoudige als-dan-algoritmes
28
00:02:48,440 --> 00:02:54,600
een cruciale rol in de technologie die we dagelijks gebruiken. Een van de bekendste
29
00:02:54,600 --> 00:03:00,080
voorbeelden is de spam filter in je email. Deze filter gebruikt een reeks van regels,
30
00:03:00,080 --> 00:03:06,280
als een email bepaalde woorden of patronen bevat, die vaak voorkomen in spam, dan worden
31
00:03:06,280 --> 00:03:11,800
deze emails naar je spamfolder verplaatst. Het is een simpele maar effectieve manier
32
00:03:11,800 --> 00:03:18,360
om je inbox schoon te houden. Een ander alledaags voorbeeld is een thermostaatprogramma. Stel dat
33
00:03:18,360 --> 00:03:23,280
je een slimme thermostaat hebt die je huis verwarmt. Als de temperatuur onder bepaalde
34
00:03:23,280 --> 00:03:32,120
warmte zakt, schakelt de thermostatenverwarming in. Er zijn daardoor talloze voorbeelden van
35
00:03:32,120 --> 00:03:37,240
algoritmes die uitstekend werk verrichten. Denk aan routeplanners die je snelste weg
36
00:03:37,240 --> 00:03:42,200
naar huis berekenen. Deze toepassingen verbeteren onze efficiëntie en veiligheid op manieren
37
00:03:42,200 --> 00:03:48,840
die we vaak als vanzelfsprekend beschouwen. Toch horen we vooral over de gevallen waar
38
00:03:48,840 --> 00:03:54,800
het juist misgaat. Dat is niet zonder reden. Wanneer algoritmes fouten maken of misbruikt
39
00:03:54,800 --> 00:04:00,640
worden kan dit grote gevolgen hebben. Denk aan discriminatie in overheidsmodellen of
40
00:04:00,640 --> 00:04:07,640
fouten in medische diagnosealgoritmes. Deze incidenten trekken terecht veel aandacht en
41
00:04:07,640 --> 00:04:12,760
zetten ons aan het denken over hoe we algoritmes beter ontwerpen en inzetten.
42
00:04:12,760 --> 00:04:19,840
Ik snap dat het woord algoritme direct een gevoel van complexiteit opwerkt en gedachten
43
00:04:19,840 --> 00:04:26,360
over mogelijke negatieve effecten bij je oproept. Maar we moeten ze goed indelen en vooral kijken
44
00:04:26,360 --> 00:04:32,120
naar modellen die een grote impact hebben en risico op ongewenst gedrag. Daar moeten
45
00:04:32,120 --> 00:04:38,240
we zeer zorgvuldig mee omgaan. Om het af te ronden. De wereld van algoritmes is best
46
00:04:38,240 --> 00:04:44,960
wel complex en veelzijdig. Indien goed gebruik gebruikt maken ze ons leven een stuk eenvoudiger.
47
00:04:44,960 --> 00:04:50,600
Maar net zoals met elke gereedschap moeten we natuurlijk voorzichtig zijn hoe we ze hanteren
48
00:04:50,600 --> 00:04:56,000
en altijd blijven streven naar verbetering en verantwoordelijkheid in een toepassing.
49
00:04:56,000 --> 00:05:03,160
Maar we hoeven niet meteen in de stress te schieten bij het woord algoritme. Soms zijn
50
00:05:03,160 --> 00:05:11,680
het gewoon hele eenvoudige handige algoritmes. Maar waar het gaat om grote impact, groot
51
00:05:11,680 --> 00:05:15,320
risico, moeten we daar gewoon heel zorgvuldig mee omgaan.
52
00:05:15,320 --> 00:05:23,560
Dankjewel weer voor het luisteren naar AIToday Live. Vergeet je niet te abonneren via
53
00:05:23,560 --> 00:05:26,040
je favoriete podcast app. Tot de volgende keer!
54
00:05:26,040 --> 00:05:35,520
[Muziek]