AIToday Live

S05E24 - Nieuwe EU AI wetgeving:gevolgen en voorbereiding

Info Support AIToday Season 5 Episode 24

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 9:44

In deze aflevering van de AIToday-podcast duiken we in de recent voorgestelde AI-act van het Europees Parlement en bespreken we de belangrijkste aspecten van deze baanbrekende wetgeving. 

We onderzoeken hoe de AI-act invloed zal hebben op bedrijven en organisaties, met speciale aandacht voor de bescherming van mensenrechten, privacy en transparantie. 

Verder bespreken we de classificatie van AI-systemen op basis van risiconiveaus en de vereisten waaraan AI-toepassingen moeten voldoen. We zullen ook enkele van de uitzonderingen en prikkels bekijken die zijn opgenomen om innovatie te stimuleren, en hoe bedrijven zich kunnen voorbereiden op de implementatie van deze wetgeving.

 Mis het niet, en zorg ervoor dat je op de hoogte blijft van de snelle veranderingen in de wereld van kunstmatige intelligentie!

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:07,880
Dit is een AIToday Live Short met vandaag het nieuws over de nieuwe AI-Act, want de leden

2
00:00:07,880 --> 00:00:12,480
van het Europees Parlement zijn klaar om te onderhandelen over de allereerste regels

3
00:00:12,480 --> 00:00:15,200
binnen de EU voor veilige en transparante AI.

4
00:00:15,200 --> 00:00:19,160
En dat is groot nieuws, daarom is deze aflevering wat langer dan 5 minuten.

5
00:00:19,160 --> 00:00:26,840
Gisteren, op woensdag 14 juni, heeft het Europees Parlement met 499 stemmen voor, 28 tegen

6
00:00:26,840 --> 00:00:30,840
en 93 onthoudingen de nieuwe AI Act aangenomen.

7
00:00:30,840 --> 00:00:35,560
Ik ben daar erg blij mee dat het Europese parlement heeft ingestemd met de komst van

8
00:00:35,560 --> 00:00:37,840
wetgeving over kunstmatige intelligentie.

9
00:00:37,840 --> 00:00:45,080
De EU wil grenzen opleggen aan wat kan en mag met AI en deze wet richt zich op makers

10
00:00:45,080 --> 00:00:47,840
gebruikers maar ook op aanbieders van AI systemen.

11
00:00:47,840 --> 00:00:54,080
Mogelijk gaat de AI Act in 2026 in werking en dat betekent dat je nu moet beginnen met

12
00:00:54,080 --> 00:00:55,080
de voorbereiding.

13
00:00:55,080 --> 00:01:01,080
Het Europees Parlement wil vooral bijsturen op het gebied van mensenrechten en privacy.

14
00:01:01,080 --> 00:01:04,840
Er zijn drie opvallende gebieden die ik wil uitlichten.

15
00:01:04,840 --> 00:01:12,280
1. Er komt een volledig verbod op kunstmatige intelligentie voor biometrische surveillance,

16
00:01:12,280 --> 00:01:15,320
emotieherkenning en voorspellende politieinzet.

17
00:01:15,320 --> 00:01:22,360
2. Generatieve AI-systemen zoals ChatGPT en MidJourney moeten bekendmaken dat er inhoud

18
00:01:22,360 --> 00:01:27,760
door AI's gegenereerd en drie, AI-systemen die worden gebruikt om kiezers bij verkiezingen

19
00:01:27,760 --> 00:01:35,200
te beïnvloeden, worden nu als risicovol beschouwd en daarmee gelden daar hoge eisen en strenge

20
00:01:35,200 --> 00:01:36,200
regels voor.

21
00:01:36,200 --> 00:01:42,560
Deze regels bevorderen dat AI op de mens gericht is en betrouwbaar is volgens het Europees

22
00:01:42,560 --> 00:01:48,560
parlement en het is bedoeld om de gezondheid, veiligheid, fundamentele rechten en democratie

23
00:01:48,560 --> 00:01:51,920
te beschermen tegen schadelijke effecten van AI.

24
00:01:51,920 --> 00:01:59,520
Zo zijn er verboden AI-praktijken ingesteld en die zijn volgens een risicogebaseerde aanpak.

25
00:01:59,520 --> 00:02:01,440
Er zijn vier risiconiveaus.

26
00:02:01,440 --> 00:02:09,260
Eén is onaanvaardbaar risico, twee is hoog risico, drie is beperkt risico en vier is

27
00:02:09,260 --> 00:02:10,360
minimaal risico.

28
00:02:10,360 --> 00:02:17,320
AI-systemen met een onaanvaardbaar risiconiveau voor de veiligheid van mensen zijn verboden.

29
00:02:17,320 --> 00:02:23,360
Zoals systemen die worden gebruikt voor bijvoorbeeld sociale scoring, waarbij mensen worden geclassificeerd

30
00:02:23,360 --> 00:02:26,760
op basis van hun sociaal gedrag of persoonlijke kenmerken.

31
00:02:26,760 --> 00:02:34,200
Europarlementariërs hebben de lijst van onervaarbare systemen uitgebreid, met zoals het gebruik

32
00:02:34,200 --> 00:02:39,600
van real-time biometrische identificatiesystemen op publiek toegankelijke plaatsen.

33
00:02:39,600 --> 00:02:44,480
Voor vervolging van ernstige misdrijven mag je er trouwens achteraf gebruik van worden

34
00:02:44,480 --> 00:02:47,440
gemaakt, maar alleen naar gerechtelijke macht ging.

35
00:02:47,440 --> 00:02:55,320
Ook het gebruik van biometrische klassificatiesystemen die gevoelige kenmerken gebruiken zoals geslacht,

36
00:02:55,320 --> 00:03:00,040
ras, etniciteit, religie en politieke oriëntatie.

37
00:03:00,040 --> 00:03:07,320
Het gebruik van voorspellende politieinzet op basis van profilering, locatie of eerdere

38
00:03:07,320 --> 00:03:13,160
criminele gedragingen zijn nu verboden, net als het gebruik van emotieherkenningssystemen

39
00:03:13,160 --> 00:03:18,040
bij rechtshandhaving, grensbeheer, werkplek, maar ook onderwijsinstellingen.

40
00:03:18,040 --> 00:03:24,200
En als laatste, die ik uit wil lichten, is het ongecontroleerd verzamelen van

41
00:03:24,200 --> 00:03:31,160
gezichtsbeelden, van foto's, van internet of bewakingscamera's om gezichtsherkenningsdatabases

42
00:03:31,160 --> 00:03:34,720
te creëren, wat in strijd is met mensenrechten en het recht op privacy.

43
00:03:34,720 --> 00:03:40,440
We hebben het geval gehad met Clearview, die gewoon het halve internet heeft

44
00:03:40,440 --> 00:03:46,360
gedownload, gezocht op foto's en waarschijnlijk staan jouw en mijn foto ook in die database.

45
00:03:46,360 --> 00:03:52,480
Europarlementariërs hebben ervoor gezorgd dat de klassificatie van hoogrisicotoepassingen,

46
00:03:52,480 --> 00:03:58,920
dat tweede risiconiveau, nu ook ER-systemen omvat die aanzienlijke schade kunnen veroorzaken aan

47
00:03:58,920 --> 00:04:05,040
de gezondheid, veiligheid, fundamentele rechten of het milieu van mensen. Hieronder vallen bijvoorbeeld

48
00:04:05,040 --> 00:04:08,120
bijvoorbeeld ER-systemen die worden gebruikt om kiezers te beïnvloeden,

49
00:04:08,120 --> 00:04:14,040
maar ook recommendation systems die worden gebruikt door sociale mediaplatforms,

50
00:04:14,040 --> 00:04:16,760
wel met meer dan 45 miljoen gebruikers.

51
00:04:16,760 --> 00:04:20,520
Deze zijn dus ook toegevoegd aan de lijst van hoogrisicotoepassingen.

52
00:04:20,520 --> 00:04:24,760
Dus voor deze systemen gelden de strengste eisen en regels.

53
00:04:24,760 --> 00:04:28,480
Foundational models, zoals CHED GPT,

54
00:04:28,480 --> 00:04:31,280
vallen nu ook onder die hoogrisicosystemen

55
00:04:31,280 --> 00:04:33,920
en moeten mogelijke risico's, die we net genoemd hebben,

56
00:04:34,040 --> 00:04:38,040
gezondheid, veiligheid, blablabla, beoordelen en beperken.

57
00:04:38,040 --> 00:04:43,640
En ze moeten hun modellen registreren in een EU-database voordat ze op de EU-markt

58
00:04:43,640 --> 00:04:48,720
mogen worden uitgebracht. Generatieve AI-systemen die zijn gebaseerd op dergelijke

59
00:04:48,720 --> 00:04:55,200
modellen moeten nu voldoen aan transparantie vereisten. En dat betekent dus dat zij

60
00:04:55,200 --> 00:05:02,240
moeten bekendmaken dat de inhoud door AI is gegenereerd. En dat moet dan ook helpen

61
00:05:02,320 --> 00:05:06,320
bij het onderscheid maken tussen zogenaamde deepfake beelden.

62
00:05:06,320 --> 00:05:10,600
Dus dit geldt bijvoorbeeld ook voor de mid-journeys, de Dali-2's van deze wereld.

63
00:05:10,600 --> 00:05:16,960
En daarbij moeten ze waarborgen bieden tegen het genereren van illegale content.

64
00:05:16,960 --> 00:05:19,520
Dus dat wordt best wel wat.

65
00:05:19,520 --> 00:05:26,800
Het zal best wel pijnlijk voor ze zijn dat ze, ja, ze moeten gedetailleerde samenvattingen

66
00:05:26,800 --> 00:05:33,340
gaan maken ook namelijk van auteursrechtelijk beschermde gegevens.

67
00:05:33,340 --> 00:05:35,740
Die moeten ze namelijk ook openbaar maken.

68
00:05:35,740 --> 00:05:39,840
Die gegevens die gebruikt zijn voor het trainen van hun modellen.

69
00:05:39,840 --> 00:05:46,260
In de media gaat het nu erg over de modellen zoals ChatGPT, maar de transparantie eisen

70
00:05:46,260 --> 00:05:48,800
gaan voor veel meer AR modellen gelden.

71
00:05:48,800 --> 00:05:53,880
En zelf vind ik dat een hele goede ontwikkeling, want door deze strengere eisen zal er meer

72
00:05:53,880 --> 00:05:57,600
onderzoek worden gedaan naar uitlegbare en interpreteerbare AI.

73
00:05:57,600 --> 00:06:02,760
Dat is een item waar we het natuurlijk vaker over hebben gehad in de podcast.

74
00:06:02,760 --> 00:06:08,760
En dat zal ervoor zorgen dat juiste luie keuze voor blackbox modellen moeten

75
00:06:08,760 --> 00:06:13,800
veranderen. Het kan best moeilijk zijn om AI begrijpelijk te maken, maar geloof me,

76
00:06:13,800 --> 00:06:18,120
het is echt de moeite waard. Het zorgt ervoor dat we beter snappen hoe AI werkt

77
00:06:18,120 --> 00:06:21,920
en dat we eerlijkere keuzes kunnen maken op basis van betrouwbare AI.

78
00:06:22,880 --> 00:06:29,200
En dat is nodig, want de Europarlementariërs willen het recht van burgers versterken om

79
00:06:29,200 --> 00:06:35,280
klachten in te dienen over AI-systemen en ook de ontvangen uitleg over beslissingen

80
00:06:35,280 --> 00:06:38,000
die dan zijn gebaseerd op die hoogrisicosystemen.

81
00:06:38,000 --> 00:06:43,800
Vaak wordt het remmen van innovatie als tegenwerping gebruikt voor regulering.

82
00:06:43,800 --> 00:06:52,400
Daarom hebben de Europarlementariërs vrijstellingen toegevoegd voor researchactiviteiten en AI-componenten

83
00:06:52,400 --> 00:06:58,580
worden versterkt onder open source licenties. Om zo innovatie te stimuleren en het midden-

84
00:06:58,580 --> 00:07:05,420
en kleinbedrijf te ondersteunen. De nieuwe wet bevordert de zogenaamde regulatory sandboxes.

85
00:07:05,420 --> 00:07:13,700
Het idee achter een regulatory sandbox is om juist die innovatieve technologieën de kans te geven

86
00:07:13,700 --> 00:07:19,820
om te laten zien wat ze kunnen doen, maar wel dan op een veilige manier. Het is als een gecontroleerde

87
00:07:19,820 --> 00:07:25,180
de omgeving waar mensen kunnen experimenteren en ontdekken zonder dat het meteen overal

88
00:07:25,180 --> 00:07:26,180
wordt toegepast.

89
00:07:26,180 --> 00:07:33,240
Dus dit helpt de makers te begrijpen hoe de AI werkt, welke problemen ze kunnen tegenkomen

90
00:07:33,240 --> 00:07:37,180
en hoe ze die kunnen oplossen voordat ze het iedereen laten gebruiken.

91
00:07:37,180 --> 00:07:42,140
Er staat ook wat in over auteursrechten.

92
00:07:42,140 --> 00:07:47,940
Dat gaat echt wel groot worden, want namelijk om het hoge risico op inbruk op het auteursrecht

93
00:07:47,940 --> 00:07:53,100
tegen te gaan zal de wetgeving, OpenAI en andere ontwikkelaars verplichten om alle

94
00:07:53,100 --> 00:07:59,580
werken te publiceren van wetenschappers, muzikanten, illustratoren, fotografen, journalisten die

95
00:07:59,580 --> 00:08:01,060
gebruikt zijn als trainingsdata.

96
00:08:01,060 --> 00:08:05,780
Ze zullen ook moeten bewijzen dat alles wat ze hebben gedaan om de machine te trainen

97
00:08:05,780 --> 00:08:07,740
in overeenstemming is met de wet.

98
00:08:07,740 --> 00:08:12,540
En als ze dat niet doen, kunnen ze gedwongen worden om hun applicatie onmiddellijk te

99
00:08:12,540 --> 00:08:18,540
verwijderen of krijgen ze een boete tot wel een hoogte van 7% van hun omzet.

100
00:08:18,540 --> 00:08:22,940
Deze eisen zullen enorme implicaties hebben voor Microsoft, OpenAI en

101
00:08:22,940 --> 00:08:26,180
bijvoorbeeld Google met Bart.

102
00:08:26,180 --> 00:08:31,700
Het is nu niet zo dat de wet nu actief is. Nu het Europese parlement groen

103
00:08:31,700 --> 00:08:35,060
licht heeft gegeven kunnen de onderhandelingen met de EU lidstaten en

104
00:08:35,060 --> 00:08:40,060
de Europese Commissie van start. Zodra hier een compromis is bereikt stemmen de

105
00:08:40,060 --> 00:08:47,060
volksvertegenwoordigers en die 27 landen nog een keer over de definitieve wet.

106
00:08:47,060 --> 00:08:52,960
Dus zelfs als de ambitieuze doelstelling van de EU om tegen het einde van dit jaar een

107
00:08:52,960 --> 00:08:59,220
akkoord over de wet te bereiken, zal deze op zijn vroegst in 2026 in werking treden.

108
00:08:59,220 --> 00:09:04,820
Dus in de tussentijd zullen ze, ja denk ik, met de technologiebedrijven om tafel gaan

109
00:09:04,820 --> 00:09:11,020
zitten of ze niet vrijwillig zich misschien al willen gaan houden aan deze wetten en regels.

110
00:09:11,020 --> 00:09:16,220
Maar goed, de wet komt er en je doet er goed aan om je vast voor te bereiden,

111
00:09:16,220 --> 00:09:23,020
want ja, transparantie en verantwoorde toepassing van AI zullen steeds belangrijker worden en het

112
00:09:23,020 --> 00:09:28,380
is essentieel om te begrijpen hoe AI werkt en welke impact het kan hebben op onze samenleving.

113
00:09:28,380 --> 00:09:34,460
Maar ja, hoe bereid je je voor? Daar gaan we in een regenieren langere aflevering van de podcast over.

114
00:09:34,460 --> 00:09:41,260
Dus mis die niet en abonneer je via je favoriete podcast app en krijg een melding bij nieuwe afleveringen.

115
00:09:41,260 --> 00:09:42,260
Dankjewel!

116
00:09:42,260 --> 00:10:05,060
(C) TV GELDERLAND 2021