AIToday Live

S05E76 - De impact van de nieuwe EU AI Act

Aigency by Info Support Season 5 Episode 76

In deze aflevering van AIToday Live staat de EU AI Act centraal, waarbij de implicaties van deze nieuwe wetgeving op het gebied van kunstmatige intelligentie worden besproken. Joop Snijder, CTO bij Aigency, doorgrondt de betekenis van deze baanbrekende Europese wet voor consumenten en bedrijven.

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:03,000
[muziek]

2
00:00:03,000 --> 00:00:06,500
Hoi, je luistert naar AIToday Live, de korte aflevering.

3
00:00:06,500 --> 00:00:09,000
Mijn naam is Joop Snijder, CTO bij Aigency.

4
00:00:09,000 --> 00:00:12,000
Voor deze keer moest ik een keuze maken.

5
00:00:12,000 --> 00:00:17,500
Ga ik jullie bijpraten over het nieuwe model van Google Gemini?

6
00:00:17,500 --> 00:00:22,000
Of zal ik kiezen voor het akkoord van de nieuwe EU AI Act?

7
00:00:22,000 --> 00:00:25,500
Nou, hoewel Google Gemini misschien meer sexy is,

8
00:00:25,500 --> 00:00:28,500
heb ik toch bewust gekozen voor de EU AI Act,

9
00:00:28,500 --> 00:00:31,500
omdat die namelijk veel belangrijker is en veel meer impact heeft.

10
00:00:31,500 --> 00:00:37,500
Gemini is een nieuw model van Google die ongeveer hetzelfde kan als GPT 3.5,

11
00:00:37,500 --> 00:00:42,000
waarvan de ultraversie, die net zo goed of ietsje beter zou moeten zijn,

12
00:00:42,000 --> 00:00:44,000
dan GPT 4.0 nog moet uitkomen.

13
00:00:44,000 --> 00:00:47,000
Dus ik heb niet gekozen voor de marketing van Google,

14
00:00:47,000 --> 00:00:50,000
maar een onderwerp dat ons allemaal raakt.

15
00:00:50,000 --> 00:00:54,000
Daarom bespreek ik de nieuwe EU AI Act wetgeving

16
00:00:54,000 --> 00:00:58,000
en wat dit betekent voor het gebruik van kunstmatige intelligentie in Europa.

17
00:00:58,000 --> 00:01:02,000
Na jaren van onderhandelingen is er nu een voorlopig akkoord bereikt

18
00:01:02,000 --> 00:01:05,000
over deze toch wel baanbrekende wetgeving,

19
00:01:05,000 --> 00:01:12,000
die als doel heeft om AI voor ons veilig, ethisch en gereguleerd te implementeren.

20
00:01:12,000 --> 00:01:16,000
Allereerst, wat houdt die AI Act nou in?

21
00:01:16,000 --> 00:01:22,000
De wet stelt nieuwe regels en vereisten voor zogenaamde hoogrisico AI-systemen.

22
00:01:22,000 --> 00:01:26,000
Dit zijn AI-toepassingen die een significant risico kunnen vormen

23
00:01:26,000 --> 00:01:30,000
voor de veiligheid of fundamentele rechten van ons als burger.

24
00:01:30,000 --> 00:01:37,000
Geschat wordt dat ongeveer zo'n 15% van alle AI-systemen onder deze risicoclasse valt.

25
00:01:37,000 --> 00:01:43,000
Voor de echt grote AI-modellen komen aparte eisen en Europese toezicht.

26
00:01:43,000 --> 00:01:47,000
Denk bijvoorbeeld aan AI-systemen in zelfrijdende auto's,

27
00:01:47,000 --> 00:01:52,000
medische diagnoses, werving en selectie voor banen of kredietbeslissingen.

28
00:01:52,000 --> 00:01:56,000
Deze systemen zullen aan strengere eisen moeten voldoen

29
00:01:56,000 --> 00:01:59,000
voordat ze op de Europese markt gebracht mogen worden.

30
00:01:59,000 --> 00:02:03,000
De wet bevat ook een aantal expliciete verboden

31
00:02:03,000 --> 00:02:08,000
op bepaalde controversiële en voor ons onwenselijke vormen van AI,

32
00:02:08,000 --> 00:02:12,000
zoals real-time gezichtsherkenning in openbare ruimtes

33
00:02:12,000 --> 00:02:16,000
en social scoring waarbij je mensen een score geeft

34
00:02:16,000 --> 00:02:19,000
op basis van hun gedrag en persoonskenmerken.

35
00:02:19,000 --> 00:02:23,000
Een bekend voorbeeld van social scoring in bijvoorbeeld China

36
00:02:23,000 --> 00:02:27,000
is een sociaal kredietsysteem waarbij de overheid burgers een score geeft

37
00:02:27,000 --> 00:02:29,000
op basis van hun gedrag.

38
00:02:29,000 --> 00:02:32,000
Bijvoorbeeld hoe goed ze de verkeersregels naleven,

39
00:02:32,000 --> 00:02:35,000
of ze op tijd rekening betalen enzovoort.

40
00:02:35,000 --> 00:02:38,000
En deze, zeg maar, burgerscore, social score,

41
00:02:38,000 --> 00:02:42,000
bepaalt vervolgens de toegang die iemand heeft op bepaalde diensten en voorzieningen.

42
00:02:42,000 --> 00:02:48,000
Dit zijn belangrijke ethische barrières die in de wetgeving nu bij ons zijn verankerd

43
00:02:48,000 --> 00:02:50,000
en dus in Europa verboden worden.

44
00:02:50,000 --> 00:02:53,000
Lijkt me een prima uitgangspositie.

45
00:02:53,000 --> 00:02:56,000
Nou, aanbieders van chatbots in webwinkels,

46
00:02:56,000 --> 00:02:59,000
maar ook als je deepfake technieken gebruikt

47
00:02:59,000 --> 00:03:02,000
of generatieve AI-systemen zoals ChatGPT,

48
00:03:02,000 --> 00:03:07,000
die moeten ervoor zorgen dat het voor mensen duidelijk is dat ze met een AI praten

49
00:03:07,000 --> 00:03:09,000
of dat content door AI is gemaakt.

50
00:03:09,000 --> 00:03:13,000
AI-systemen met geen tot weinig risico voor mensen

51
00:03:13,000 --> 00:03:15,000
hoeven niet aan extra uitzetten te voldoen.

52
00:03:15,000 --> 00:03:18,000
Dit zijn bijvoorbeeld AI-systemen voor klantenservices,

53
00:03:18,000 --> 00:03:22,000
voorraadbeheer of laag risicodata.

54
00:03:22,000 --> 00:03:28,000
Dus als je Netflix'e aanbeveling misschien net even die verkeerde serie heeft aanbevolen,

55
00:03:28,000 --> 00:03:32,000
heeft dat niet zo'n hoog risico gehaald.

56
00:03:32,000 --> 00:03:36,000
Nou, wat ook interessant is, zijn de nieuwe regels

57
00:03:36,000 --> 00:03:41,000
voor zogenaamde, wat zij dan noemen, general-purpose AI-modellen.

58
00:03:41,000 --> 00:03:43,000
Zoals de chatbots en de taalmodellen

59
00:03:43,000 --> 00:03:47,000
en de grootste en meest geavanceerde varianten hiervan,

60
00:03:47,000 --> 00:03:50,000
ChatGPT, Googlebot, dat soort zaken.

61
00:03:50,000 --> 00:03:54,000
Hiervan zullen aanvullende eisen,

62
00:03:54,000 --> 00:03:56,000
zij zullen aan aanvullende eisen moeten voldoen

63
00:03:56,000 --> 00:04:00,000
op het gebied van veiligheid, nakeurigheid en transparantie.

64
00:04:00,000 --> 00:04:02,000
En dit kan uiteraard gevolgen hebben

65
00:04:02,000 --> 00:04:06,000
voor de ontwikkeling van dit soort AI-systemen door tech-giganten.

66
00:04:06,000 --> 00:04:10,000
Dus we moeten maar eens even kijken hoe zij daar uiteindelijk mee omgaan.

67
00:04:10,000 --> 00:04:12,000
Maar ik denk dat dat wel een hele goeie is,

68
00:04:12,000 --> 00:04:16,000
vooral veiligheid, transparantie. Ik ben voor.

69
00:04:16,000 --> 00:04:22,000
In de AI-Act is ook rekening gehouden met het behoud van innovatieruimte

70
00:04:22,000 --> 00:04:27,000
voor met name Europese start-ups en scale-ups die werken aan AI-systemen.

71
00:04:27,000 --> 00:04:30,000
Zo krijgen Europese bedrijven over het algemeen

72
00:04:30,000 --> 00:04:33,000
een iets lichtere set verplichtingen opgelegd dan niet-Europese partijen.

73
00:04:33,000 --> 00:04:36,000
En ook hoeven kleine start-up bedrijven, start-ups,

74
00:04:36,000 --> 00:04:39,000
zich voorlopig niet te houden aan de strengste regelgeving,

75
00:04:39,000 --> 00:04:44,000
die wel geldt voor de grootste en meest riscante AI-systemen.

76
00:04:44,000 --> 00:04:49,000
Pas wanneer hun systemen een significante impact gaan hebben op de maatschappij,

77
00:04:49,000 --> 00:04:52,000
zullen zij ook steeds aan meer vereisten moeten voldoen.

78
00:04:52,000 --> 00:04:55,000
Lijkt me op zich ook best wel heel erg logisch.

79
00:04:55,000 --> 00:05:00,000
Dus de Europese wetgevers hebben geprobeerd om een balans te vinden

80
00:05:00,000 --> 00:05:05,000
tussen consumentenbescherming en het faciliteren van verantwoorde AI-innovatie.

81
00:05:05,000 --> 00:05:09,000
Tegelijkertijd biedt de nieuwe regulering ook meer rechtszekerheid

82
00:05:09,000 --> 00:05:12,000
voor start-ups die met AI aan de slag willen binnen Europa,

83
00:05:12,000 --> 00:05:15,000
omdat nu die spelregels veel duidelijker zijn.

84
00:05:15,000 --> 00:05:19,000
Ik vind het belangrijk om te benadrukken dat deze AI-act

85
00:05:19,000 --> 00:05:24,000
slechts een eerste stap is in het reguleren van deze complexe technologie.

86
00:05:24,000 --> 00:05:28,000
Na de formele goedkeuring volgend jaar, ongeveer,

87
00:05:28,000 --> 00:05:33,000
zal de implementatie en handhaving van de wet de komende jaren centraal komen te staan.

88
00:05:33,000 --> 00:05:37,000
We kunnen dus nog veel jurisprudentie en aanpassingen verwachten,

89
00:05:37,000 --> 00:05:42,000
maar met dit, nou ja, toch wel unieke akkoord,

90
00:05:42,000 --> 00:05:48,000
toont Europa in ieder geval leiderschap in het vormgeven van verantwoorde en menselijke AI-systemen.

91
00:05:48,000 --> 00:05:52,000
Dus als we alles bij elkaar nemen, biedt de AI-act,

92
00:05:52,000 --> 00:05:56,000
dus enerzijds meer zekerheid voor burgers, consumenten,

93
00:05:56,000 --> 00:06:00,000
maar anderzijds ook voldoende innovatieruimte voor het bedrijfsleven.

94
00:06:00,000 --> 00:06:03,000
Ik denk een complex evenwicht, maar na jaren onderhandelen

95
00:06:03,000 --> 00:06:06,000
lijken we nu in ieder geval een werkbare balans gevonden te hebben.

96
00:06:06,000 --> 00:06:11,000
En ongetwijfeld zal de praktische uitwerking en implementatie van de wet

97
00:06:11,000 --> 00:06:14,000
de komende jaren nog de nodige voeten in aarde hebben.

98
00:06:14,000 --> 00:06:21,000
Maar Europa bewandelt met deze AI-act grotendeels onbekend terrein van technologieregulering.

99
00:06:21,000 --> 00:06:23,000
Dus daar moeten we wel rekening mee houden.

100
00:06:23,000 --> 00:06:27,000
En niet onbelangrijk, het akkoord moet nog wel worden goedgekeurd

101
00:06:27,000 --> 00:06:30,000
door alle EU-lidstaten en het hele Europees parlement.

102
00:06:30,000 --> 00:06:37,000
Dus de wet treedt naar zo'n twee jaar inwerking na dat akkoord.

103
00:06:37,000 --> 00:06:43,000
Klinkt misschien nog best wel lang, maar als je nu begint met het ontwikkelen van AI-systemen,

104
00:06:43,000 --> 00:06:47,000
kun je alvast rekening houden met deze wetgeving, want ik ga ervan uit

105
00:06:47,000 --> 00:06:51,000
dat je systeem wel de aankomende jaren wilt blijven gebruiken.

106
00:06:51,000 --> 00:06:53,000
En dan gaat die onder deze wetgeving vallen.

107
00:06:56,000 --> 00:07:02,000
Vind je deze content nou leuk? Deel hem dan met vrienden, collega's, familie.

108
00:07:02,000 --> 00:07:08,000
En tegenwoordig hebben we een exclusieve nieuwsbrief voor onze luisteraars.

109
00:07:08,000 --> 00:07:11,000
Link kun je vinden in de show notes.

110
00:07:11,000 --> 00:07:16,000
[Muziek]

111
00:07:16,000 --> 00:07:36,400
 

People on this episode