AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is uitgeroepen tot AI Podcast of the Year 2025 en is drie keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S05E24 - Nieuwe EU AI wetgeving:gevolgen en voorbereiding
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
In deze aflevering van de AIToday-podcast duiken we in de recent voorgestelde AI-act van het Europees Parlement en bespreken we de belangrijkste aspecten van deze baanbrekende wetgeving.
We onderzoeken hoe de AI-act invloed zal hebben op bedrijven en organisaties, met speciale aandacht voor de bescherming van mensenrechten, privacy en transparantie.
Verder bespreken we de classificatie van AI-systemen op basis van risiconiveaus en de vereisten waaraan AI-toepassingen moeten voldoen. We zullen ook enkele van de uitzonderingen en prikkels bekijken die zijn opgenomen om innovatie te stimuleren, en hoe bedrijven zich kunnen voorbereiden op de implementatie van deze wetgeving.
Mis het niet, en zorg ervoor dat je op de hoogte blijft van de snelle veranderingen in de wereld van kunstmatige intelligentie!
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:07,880
Dit is een AIToday Live Short met vandaag het nieuws over de nieuwe AI-Act, want de leden
2
00:00:07,880 --> 00:00:12,480
van het Europees Parlement zijn klaar om te onderhandelen over de allereerste regels
3
00:00:12,480 --> 00:00:15,200
binnen de EU voor veilige en transparante AI.
4
00:00:15,200 --> 00:00:19,160
En dat is groot nieuws, daarom is deze aflevering wat langer dan 5 minuten.
5
00:00:19,160 --> 00:00:26,840
Gisteren, op woensdag 14 juni, heeft het Europees Parlement met 499 stemmen voor, 28 tegen
6
00:00:26,840 --> 00:00:30,840
en 93 onthoudingen de nieuwe AI Act aangenomen.
7
00:00:30,840 --> 00:00:35,560
Ik ben daar erg blij mee dat het Europese parlement heeft ingestemd met de komst van
8
00:00:35,560 --> 00:00:37,840
wetgeving over kunstmatige intelligentie.
9
00:00:37,840 --> 00:00:45,080
De EU wil grenzen opleggen aan wat kan en mag met AI en deze wet richt zich op makers
10
00:00:45,080 --> 00:00:47,840
gebruikers maar ook op aanbieders van AI systemen.
11
00:00:47,840 --> 00:00:54,080
Mogelijk gaat de AI Act in 2026 in werking en dat betekent dat je nu moet beginnen met
12
00:00:54,080 --> 00:00:55,080
de voorbereiding.
13
00:00:55,080 --> 00:01:01,080
Het Europees Parlement wil vooral bijsturen op het gebied van mensenrechten en privacy.
14
00:01:01,080 --> 00:01:04,840
Er zijn drie opvallende gebieden die ik wil uitlichten.
15
00:01:04,840 --> 00:01:12,280
1. Er komt een volledig verbod op kunstmatige intelligentie voor biometrische surveillance,
16
00:01:12,280 --> 00:01:15,320
emotieherkenning en voorspellende politieinzet.
17
00:01:15,320 --> 00:01:22,360
2. Generatieve AI-systemen zoals ChatGPT en MidJourney moeten bekendmaken dat er inhoud
18
00:01:22,360 --> 00:01:27,760
door AI's gegenereerd en drie, AI-systemen die worden gebruikt om kiezers bij verkiezingen
19
00:01:27,760 --> 00:01:35,200
te beïnvloeden, worden nu als risicovol beschouwd en daarmee gelden daar hoge eisen en strenge
20
00:01:35,200 --> 00:01:36,200
regels voor.
21
00:01:36,200 --> 00:01:42,560
Deze regels bevorderen dat AI op de mens gericht is en betrouwbaar is volgens het Europees
22
00:01:42,560 --> 00:01:48,560
parlement en het is bedoeld om de gezondheid, veiligheid, fundamentele rechten en democratie
23
00:01:48,560 --> 00:01:51,920
te beschermen tegen schadelijke effecten van AI.
24
00:01:51,920 --> 00:01:59,520
Zo zijn er verboden AI-praktijken ingesteld en die zijn volgens een risicogebaseerde aanpak.
25
00:01:59,520 --> 00:02:01,440
Er zijn vier risiconiveaus.
26
00:02:01,440 --> 00:02:09,260
Eén is onaanvaardbaar risico, twee is hoog risico, drie is beperkt risico en vier is
27
00:02:09,260 --> 00:02:10,360
minimaal risico.
28
00:02:10,360 --> 00:02:17,320
AI-systemen met een onaanvaardbaar risiconiveau voor de veiligheid van mensen zijn verboden.
29
00:02:17,320 --> 00:02:23,360
Zoals systemen die worden gebruikt voor bijvoorbeeld sociale scoring, waarbij mensen worden geclassificeerd
30
00:02:23,360 --> 00:02:26,760
op basis van hun sociaal gedrag of persoonlijke kenmerken.
31
00:02:26,760 --> 00:02:34,200
Europarlementariërs hebben de lijst van onervaarbare systemen uitgebreid, met zoals het gebruik
32
00:02:34,200 --> 00:02:39,600
van real-time biometrische identificatiesystemen op publiek toegankelijke plaatsen.
33
00:02:39,600 --> 00:02:44,480
Voor vervolging van ernstige misdrijven mag je er trouwens achteraf gebruik van worden
34
00:02:44,480 --> 00:02:47,440
gemaakt, maar alleen naar gerechtelijke macht ging.
35
00:02:47,440 --> 00:02:55,320
Ook het gebruik van biometrische klassificatiesystemen die gevoelige kenmerken gebruiken zoals geslacht,
36
00:02:55,320 --> 00:03:00,040
ras, etniciteit, religie en politieke oriëntatie.
37
00:03:00,040 --> 00:03:07,320
Het gebruik van voorspellende politieinzet op basis van profilering, locatie of eerdere
38
00:03:07,320 --> 00:03:13,160
criminele gedragingen zijn nu verboden, net als het gebruik van emotieherkenningssystemen
39
00:03:13,160 --> 00:03:18,040
bij rechtshandhaving, grensbeheer, werkplek, maar ook onderwijsinstellingen.
40
00:03:18,040 --> 00:03:24,200
En als laatste, die ik uit wil lichten, is het ongecontroleerd verzamelen van
41
00:03:24,200 --> 00:03:31,160
gezichtsbeelden, van foto's, van internet of bewakingscamera's om gezichtsherkenningsdatabases
42
00:03:31,160 --> 00:03:34,720
te creëren, wat in strijd is met mensenrechten en het recht op privacy.
43
00:03:34,720 --> 00:03:40,440
We hebben het geval gehad met Clearview, die gewoon het halve internet heeft
44
00:03:40,440 --> 00:03:46,360
gedownload, gezocht op foto's en waarschijnlijk staan jouw en mijn foto ook in die database.
45
00:03:46,360 --> 00:03:52,480
Europarlementariërs hebben ervoor gezorgd dat de klassificatie van hoogrisicotoepassingen,
46
00:03:52,480 --> 00:03:58,920
dat tweede risiconiveau, nu ook ER-systemen omvat die aanzienlijke schade kunnen veroorzaken aan
47
00:03:58,920 --> 00:04:05,040
de gezondheid, veiligheid, fundamentele rechten of het milieu van mensen. Hieronder vallen bijvoorbeeld
48
00:04:05,040 --> 00:04:08,120
bijvoorbeeld ER-systemen die worden gebruikt om kiezers te beïnvloeden,
49
00:04:08,120 --> 00:04:14,040
maar ook recommendation systems die worden gebruikt door sociale mediaplatforms,
50
00:04:14,040 --> 00:04:16,760
wel met meer dan 45 miljoen gebruikers.
51
00:04:16,760 --> 00:04:20,520
Deze zijn dus ook toegevoegd aan de lijst van hoogrisicotoepassingen.
52
00:04:20,520 --> 00:04:24,760
Dus voor deze systemen gelden de strengste eisen en regels.
53
00:04:24,760 --> 00:04:28,480
Foundational models, zoals CHED GPT,
54
00:04:28,480 --> 00:04:31,280
vallen nu ook onder die hoogrisicosystemen
55
00:04:31,280 --> 00:04:33,920
en moeten mogelijke risico's, die we net genoemd hebben,
56
00:04:34,040 --> 00:04:38,040
gezondheid, veiligheid, blablabla, beoordelen en beperken.
57
00:04:38,040 --> 00:04:43,640
En ze moeten hun modellen registreren in een EU-database voordat ze op de EU-markt
58
00:04:43,640 --> 00:04:48,720
mogen worden uitgebracht. Generatieve AI-systemen die zijn gebaseerd op dergelijke
59
00:04:48,720 --> 00:04:55,200
modellen moeten nu voldoen aan transparantie vereisten. En dat betekent dus dat zij
60
00:04:55,200 --> 00:05:02,240
moeten bekendmaken dat de inhoud door AI is gegenereerd. En dat moet dan ook helpen
61
00:05:02,320 --> 00:05:06,320
bij het onderscheid maken tussen zogenaamde deepfake beelden.
62
00:05:06,320 --> 00:05:10,600
Dus dit geldt bijvoorbeeld ook voor de mid-journeys, de Dali-2's van deze wereld.
63
00:05:10,600 --> 00:05:16,960
En daarbij moeten ze waarborgen bieden tegen het genereren van illegale content.
64
00:05:16,960 --> 00:05:19,520
Dus dat wordt best wel wat.
65
00:05:19,520 --> 00:05:26,800
Het zal best wel pijnlijk voor ze zijn dat ze, ja, ze moeten gedetailleerde samenvattingen
66
00:05:26,800 --> 00:05:33,340
gaan maken ook namelijk van auteursrechtelijk beschermde gegevens.
67
00:05:33,340 --> 00:05:35,740
Die moeten ze namelijk ook openbaar maken.
68
00:05:35,740 --> 00:05:39,840
Die gegevens die gebruikt zijn voor het trainen van hun modellen.
69
00:05:39,840 --> 00:05:46,260
In de media gaat het nu erg over de modellen zoals ChatGPT, maar de transparantie eisen
70
00:05:46,260 --> 00:05:48,800
gaan voor veel meer AR modellen gelden.
71
00:05:48,800 --> 00:05:53,880
En zelf vind ik dat een hele goede ontwikkeling, want door deze strengere eisen zal er meer
72
00:05:53,880 --> 00:05:57,600
onderzoek worden gedaan naar uitlegbare en interpreteerbare AI.
73
00:05:57,600 --> 00:06:02,760
Dat is een item waar we het natuurlijk vaker over hebben gehad in de podcast.
74
00:06:02,760 --> 00:06:08,760
En dat zal ervoor zorgen dat juiste luie keuze voor blackbox modellen moeten
75
00:06:08,760 --> 00:06:13,800
veranderen. Het kan best moeilijk zijn om AI begrijpelijk te maken, maar geloof me,
76
00:06:13,800 --> 00:06:18,120
het is echt de moeite waard. Het zorgt ervoor dat we beter snappen hoe AI werkt
77
00:06:18,120 --> 00:06:21,920
en dat we eerlijkere keuzes kunnen maken op basis van betrouwbare AI.
78
00:06:22,880 --> 00:06:29,200
En dat is nodig, want de Europarlementariërs willen het recht van burgers versterken om
79
00:06:29,200 --> 00:06:35,280
klachten in te dienen over AI-systemen en ook de ontvangen uitleg over beslissingen
80
00:06:35,280 --> 00:06:38,000
die dan zijn gebaseerd op die hoogrisicosystemen.
81
00:06:38,000 --> 00:06:43,800
Vaak wordt het remmen van innovatie als tegenwerping gebruikt voor regulering.
82
00:06:43,800 --> 00:06:52,400
Daarom hebben de Europarlementariërs vrijstellingen toegevoegd voor researchactiviteiten en AI-componenten
83
00:06:52,400 --> 00:06:58,580
worden versterkt onder open source licenties. Om zo innovatie te stimuleren en het midden-
84
00:06:58,580 --> 00:07:05,420
en kleinbedrijf te ondersteunen. De nieuwe wet bevordert de zogenaamde regulatory sandboxes.
85
00:07:05,420 --> 00:07:13,700
Het idee achter een regulatory sandbox is om juist die innovatieve technologieën de kans te geven
86
00:07:13,700 --> 00:07:19,820
om te laten zien wat ze kunnen doen, maar wel dan op een veilige manier. Het is als een gecontroleerde
87
00:07:19,820 --> 00:07:25,180
de omgeving waar mensen kunnen experimenteren en ontdekken zonder dat het meteen overal
88
00:07:25,180 --> 00:07:26,180
wordt toegepast.
89
00:07:26,180 --> 00:07:33,240
Dus dit helpt de makers te begrijpen hoe de AI werkt, welke problemen ze kunnen tegenkomen
90
00:07:33,240 --> 00:07:37,180
en hoe ze die kunnen oplossen voordat ze het iedereen laten gebruiken.
91
00:07:37,180 --> 00:07:42,140
Er staat ook wat in over auteursrechten.
92
00:07:42,140 --> 00:07:47,940
Dat gaat echt wel groot worden, want namelijk om het hoge risico op inbruk op het auteursrecht
93
00:07:47,940 --> 00:07:53,100
tegen te gaan zal de wetgeving, OpenAI en andere ontwikkelaars verplichten om alle
94
00:07:53,100 --> 00:07:59,580
werken te publiceren van wetenschappers, muzikanten, illustratoren, fotografen, journalisten die
95
00:07:59,580 --> 00:08:01,060
gebruikt zijn als trainingsdata.
96
00:08:01,060 --> 00:08:05,780
Ze zullen ook moeten bewijzen dat alles wat ze hebben gedaan om de machine te trainen
97
00:08:05,780 --> 00:08:07,740
in overeenstemming is met de wet.
98
00:08:07,740 --> 00:08:12,540
En als ze dat niet doen, kunnen ze gedwongen worden om hun applicatie onmiddellijk te
99
00:08:12,540 --> 00:08:18,540
verwijderen of krijgen ze een boete tot wel een hoogte van 7% van hun omzet.
100
00:08:18,540 --> 00:08:22,940
Deze eisen zullen enorme implicaties hebben voor Microsoft, OpenAI en
101
00:08:22,940 --> 00:08:26,180
bijvoorbeeld Google met Bart.
102
00:08:26,180 --> 00:08:31,700
Het is nu niet zo dat de wet nu actief is. Nu het Europese parlement groen
103
00:08:31,700 --> 00:08:35,060
licht heeft gegeven kunnen de onderhandelingen met de EU lidstaten en
104
00:08:35,060 --> 00:08:40,060
de Europese Commissie van start. Zodra hier een compromis is bereikt stemmen de
105
00:08:40,060 --> 00:08:47,060
volksvertegenwoordigers en die 27 landen nog een keer over de definitieve wet.
106
00:08:47,060 --> 00:08:52,960
Dus zelfs als de ambitieuze doelstelling van de EU om tegen het einde van dit jaar een
107
00:08:52,960 --> 00:08:59,220
akkoord over de wet te bereiken, zal deze op zijn vroegst in 2026 in werking treden.
108
00:08:59,220 --> 00:09:04,820
Dus in de tussentijd zullen ze, ja denk ik, met de technologiebedrijven om tafel gaan
109
00:09:04,820 --> 00:09:11,020
zitten of ze niet vrijwillig zich misschien al willen gaan houden aan deze wetten en regels.
110
00:09:11,020 --> 00:09:16,220
Maar goed, de wet komt er en je doet er goed aan om je vast voor te bereiden,
111
00:09:16,220 --> 00:09:23,020
want ja, transparantie en verantwoorde toepassing van AI zullen steeds belangrijker worden en het
112
00:09:23,020 --> 00:09:28,380
is essentieel om te begrijpen hoe AI werkt en welke impact het kan hebben op onze samenleving.
113
00:09:28,380 --> 00:09:34,460
Maar ja, hoe bereid je je voor? Daar gaan we in een regenieren langere aflevering van de podcast over.
114
00:09:34,460 --> 00:09:41,260
Dus mis die niet en abonneer je via je favoriete podcast app en krijg een melding bij nieuwe afleveringen.
115
00:09:41,260 --> 00:09:42,260
Dankjewel!
116
00:09:42,260 --> 00:10:05,060
(C) TV GELDERLAND 2021