AIToday Live

S05E32 - OpenAI en Meta: Auteursrechten in het vizier

Info Support AIToday Season 5 Episode 32

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 5:25

In deze aflevering van AIToday Live Shorts gaan we diep in op een baanbrekende juridische strijd over kunstmatige intelligentie (AI), auteursrechten en datagebruik. We richten ons specifiek op de recente rechtszaken waarin techreuzen OpenAI en Meta (voorheen Facebook) centraal staan, aangeklaagd door beroemdheden zoals komiek Sarah Silverman en de auteurs Christopher Golden en Richard Kadrey. Deze prominente figuren beweren dat hun auteursrechtelijk beschermde werken zijn gebruikt voor AI-training zonder hun toestemming.

De uitkomst van deze rechtszaken kan enorme gevolgen hebben voor hoe we begrippen als 'redelijk gebruik' interpreteren binnen de wereld van AI en auteursrecht. Mis deze boeiende discussie niet – stem af op AIToday Live Shorts.


Sarah Silverman sues OpenAI and Meta claiming AI training infringed copyright


Links

Bronnen

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,920
Welkom bij een nieuwe AI Today Live Shorts met actueel nieuws binnen 5 minuten over

2
00:00:06,920 --> 00:00:12,640
kunstmatige intelligentie. In deze aflevering vandaag een juridische strijd over AI,

3
00:00:12,640 --> 00:00:15,800
auteursrechten en grote bedrijven zoals OpenAI en Meta.

4
00:00:15,800 --> 00:00:20,480
Tijdens mijn live sessie van Digital Dialogues, die je terug kan luisteren trouwens,

5
00:00:20,480 --> 00:00:26,000
kreeg ik een vraag over auteursrechten van trainingsdata van Chet Jipiti en wat daarmee

6
00:00:26,000 --> 00:00:31,000
zou gebeuren? Mijn antwoord was op dat moment dat ik weet natuurlijk niet hoe rechters hiernaar

7
00:00:31,000 --> 00:00:37,920
kijken, hoe dit soort wetgevingen precies in elkaar zit, maar dat je er wel zeker van kon zijn dat de

8
00:00:37,920 --> 00:00:43,120
rechtszaken gaan komen omdat deze modellen getraind zijn op data waarvan het niet al

9
00:00:43,120 --> 00:00:48,520
te duidelijk is wat de herkomst is. Daar hoef je geen waarzegger over te zijn en nu is dat spel op

10
00:00:48,520 --> 00:00:53,840
de wagen. Want je hebt misschien gehoord dat de Amerikaanse komiek en auteur Sarah Silverman,

11
00:00:53,840 --> 00:00:58,720
Ik ken het eigenlijk niet, maar goed voor het verhaal van deze aflevering maakt het niet uit.

12
00:00:58,720 --> 00:01:04,640
Die Sarah Silverman die heeft samen met auteurs Christopher Golden en Richard Kadrey,

13
00:01:04,640 --> 00:01:10,400
ik denk dat je dat zo uitspreekt, rechtszaken hebben aangespannen tegen open AI en tegen

14
00:01:10,400 --> 00:01:18,160
de meta, Facebook, wegens vermeende inbreuk op het auteursrecht. Ze beweren dat de AI modellen die

15
00:01:18,160 --> 00:01:23,640
zij hebben, die zijn ontwikkeld dat hun werk zonder toestemming is gebruikt als onderdeel

16
00:01:23,640 --> 00:01:28,240
van hun trainingsgegevens. En zij beweren dat hun boeken die zij geschreven hebben,

17
00:01:28,240 --> 00:01:34,640
dat dat onderdeel is geworden van die dataset, van de trainingsdata. En dat is beschermend materiaal.

18
00:01:34,640 --> 00:01:40,560
En dat is dan zonder toestemming gebruikt. Nou zelf fotografeer ik graag en staan er in

19
00:01:40,560 --> 00:01:45,440
ieder geval heel veel foto's van mij op internet. Allemaal met duidelijke acteursrechten. En toch

20
00:01:45,440 --> 00:01:49,440
Toch vond ik heel eenvoudig met een website, dat heet 'Have I Been Trained'.

21
00:01:49,440 --> 00:01:55,440
Daar kan je nakijken of mijn foto of die ook onderdeel uitmaakt van beeld datasets,

22
00:01:55,440 --> 00:01:59,440
die bijvoorbeeld ook gebruikt worden voor het trainen van dit soort modellen,

23
00:01:59,440 --> 00:02:02,440
zoals Stable Diffusion of Imagine van Google.

24
00:02:02,440 --> 00:02:05,440
Met deze search engine zou je het kunnen noemen,

25
00:02:05,440 --> 00:02:08,440
vond ik heel snel foto's die ik zelf gemaakt heb,

26
00:02:08,440 --> 00:02:13,440
die inderdaad als onderdeel zijn geweest voor de training van dit soort grote modellen.

27
00:02:13,440 --> 00:02:19,780
Niet alleen OpenAI als maker van Chachipiti wordt je van beschuldigd, ook Meta zit in

28
00:02:19,780 --> 00:02:23,820
hetzelfde schuitje en die wordt beschuldigd van het gebruik van auteursrechtelijk beschermde

29
00:02:23,820 --> 00:02:28,140
werken voor zijn taalmodellen, Lama.

30
00:02:28,140 --> 00:02:33,980
De rechtszaak die deze drie mensen hebben aangespand beweert dat Meta toegang heeft

31
00:02:33,980 --> 00:02:40,260
gekregen tot beschermde boeken via zogenaamde shadow libraries noemen ze dat.

32
00:02:40,260 --> 00:02:44,660
Dat zijn dan natuurlijk bronnen, we kennen het wel, waarbij je illegale content uiteindelijk

33
00:02:44,660 --> 00:02:46,220
kan vinden.

34
00:02:46,220 --> 00:02:53,340
En als reactie op de toenemende zorgen heeft zelfs de CEO van OpenAI, Sam Eildman, een

35
00:02:53,340 --> 00:02:55,340
mogelijke oplossing voorgesteld al.

36
00:02:55,340 --> 00:02:57,660
Want hij voelt het natuurlijk ook wel aankomen.

37
00:02:57,660 --> 00:03:03,540
En hij stelde een model voor, een businessmodel, waarbij makers betaald kunnen worden als een

38
00:03:03,540 --> 00:03:05,660
AI-systeem hun inhoud of stijl gebruikt.

39
00:03:05,660 --> 00:03:11,580
En dat die het voelt aankomen lijkt ook wel omdat critici beweren dat openen jaren meta

40
00:03:11,580 --> 00:03:17,140
zeggen 'ter dege bewust van zijn' waren dat de modellen auteursrechtelijk beschermd materiaal

41
00:03:17,140 --> 00:03:18,140
bezitten.

42
00:03:18,140 --> 00:03:24,500
Omdat ze namelijk juist die stukjes waar het copyright en dat soort dingen op staat, dat

43
00:03:24,500 --> 00:03:26,660
ze dat opzettelijk lijken te hebben verwijderd.

44
00:03:26,660 --> 00:03:35,140
Nu heb je nog ook zoiets als "redelijk gebruik" wat ze dan noemen.

45
00:03:35,140 --> 00:03:41,780
En vorige maand publiceerde in Amerika The Author's Guild een open brief waarin zes

46
00:03:41,780 --> 00:03:47,500
technologiebedrijven werden beschuldigd van het misbruiken van het werk zonder toestemming

47
00:03:47,500 --> 00:03:48,500
of compensatie.

48
00:03:48,500 --> 00:03:54,180
En de uitkomst van deze rechtszaken zou kunnen afhangen van het concept van "redelijk gebruik".

49
00:03:54,180 --> 00:03:59,180
Er is een wet die toestaat dat auteursrechtelijk beschermd materiaal, lastig woord omdat

50
00:03:59,180 --> 00:04:02,220
ik het een keer haalde, onder bepaalde omstandigheden wordt gebruikt.

51
00:04:02,220 --> 00:04:05,380
Bijvoorbeeld wanneer het origineel werk wordt getransformeerd.

52
00:04:05,380 --> 00:04:09,820
Wanneer heb je het dan nog over redelijk gebruik en wat betekent dan getransformeerd?

53
00:04:09,820 --> 00:04:12,380
Dus dat gaat heel erg interessant worden.

54
00:04:12,380 --> 00:04:19,460
Leveranciers van modellen weten dat dit eraan zit te komen en een aantal hebben al aangegeven

55
00:04:19,460 --> 00:04:25,860
dat mocht je gebruik maken van de uitkomsten van dat model en daarmee dat je rechtszaken

56
00:04:25,860 --> 00:04:31,820
krijgt, of jij ook niet inbreuk maakt op het acteursrecht, dan zeg je "ja, dat kopen wij af,

57
00:04:31,820 --> 00:04:38,700
wij zorgen ervoor dat we je compenseren dat je in ieder geval de uitkomsten nu kan gebruiken".

58
00:04:38,700 --> 00:04:44,900
Best wel spannend hoe dat gaat, hoe dat kan. In ieder geval goed om dit in de gaten te houden

59
00:04:44,900 --> 00:04:48,940
als je gebruik wil gaan maken van dit soort modellen in productie.

60
00:04:48,940 --> 00:04:56,020
Nou, deze rechtszaken openen in ieder geval een nieuwe deur in de auteursrechten discussie en

61
00:04:56,020 --> 00:05:02,000
wat de juridische implicaties gaan zijn. Nou, we gaan het in de gaten houden. Ik denk dat het

62
00:05:02,000 --> 00:05:09,020
voor iedereen interessant is. Dus vandaag geen sluitend antwoord op de vraag, maar iets wat

63
00:05:09,020 --> 00:05:21,340
wat we wel in de gaten gaan houden.

64
00:05:21,340 --> 00:05:23,340


65
00:05:23,340 --> 00:05:25,340