
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S04E14 - Kunstmatige intelligentie in 2023 - 10 voorspellingen!
Wat brengt 2023 ons op het gebied van Artificial Intelligence? Joop & Niels hebben 10 voorspellingen. Uiteraard valt de toekomst zich niet met zekerheid te voorspellen, daarom net als een AI-model doen ze dat met een bepaalde zekerheid.
Voorspellingen gaan over
- GPT-3, GPT-4, Google Search
- AI Act, Explainable AI
- Big Tech vs Open Source en welke uitdagingen krijgt Big Tech in 2023
- Wordt duurzaamheid een thema in 2023?
- Komt er een AI schandaal aan?
Links
- De impact van ChatGPT op de toekomst van Google Search
- AI register
- IAMA opleiding
- AI Act
- Algoritmetoezicht bij AP krijgt vorm
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
Leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live podcast. Ik ben Niels Naglé, chapter lead Data&AI bij Info Support. Mijn naam is Joop Snijder, CTO bij Aigency. Zo, Joop, zijn we weer. Ja, zeker. Afsluiting van het seizoen, hè. Ja, maar wat voor seizoen? Hoe keek jij erop terug? Ja, we hebben weer een hoop leuke dingen gedaan. Nieuwe dingen. De conferentie. De conferentie, ja. Hoe heet het? Bij een conferentie hebben we heel wat opnames gemaakt. Leuk nieuwe mensen gesproken, allemaal sprekers die daar spraken. Het was inspirerend. Zeker, en dat remote. Net zoals vandaag, zitten we weer een beetje hybride? Zitten we weer een beetje hybride. Jij op kantoor. Ik ben noodgedwongen thuis. Een klein schaatsenongelukje. Waardoor ik nu al in de pijnstelling zit. Dus mochten er rare dingen uit mijn mond komen, dan kan ik dat altijd daar gaan wijten, toch? Ja, nou ja. We zullen het je vergeven, inderdaad. Maar inderdaad, mooi seizoen inderdaad. Dus niet alleen op een conferentie live met sprekers voor jou, Joop, en voor mij remote. Maar natuurlijk ook een mooie nominatie van de Belgian Podcast Award, Prijs van Oranje. Prachtig om natuurlijk in de lijst te staan met AD, Volkskrant, RTL en Bol. Dus ja, dat is echt wel trots. Nou, en een beetje onszelf op de borst slaan, hè. Want we waren de hoogst genoteerde technische podcast. Kijk, kijk, kijk. Heerlijk, heerlijk om dat soort dingen te doen. Door eigenlijk gewoon met elkaar met passie over het vak te praten. En dan zoiets voorbij te zien komen en mogen genomineerd worden. En ja, helemaal top. Absoluut. En nou, voor volgend jaar hebben we alweer nieuwe gasten staan. Mochten mensen dit horen en zeggen van, hey, ik zou ook wel eens een keer gast willen zijn. Ik heb wat te vertellen over AI. Meld je aan bij ons via LinkedIn, kan je ons makkelijk vinden. Dus welkom, zou ik haast zeggen. Maar misschien wilden we het dit keer wat anders afsluiten dan de andere keer. Dus in plaats van terugkijken, toch vooral eventjes vooruitkijken. Het is een tijd van misschien inderdaad wel achteruitkijken, maar ook wel van vooruitkijken. Nou, ons vakgebied gaat hard vooruit altijd. Dus laten we eens kijken wat er aan zit te komen. Waarbij we wel altijd moeten zeggen, nou, de toekomst laat zich slecht voorspellen. Dus ik denk niet dat we ons wagen aan vijfjarige voorspellingen. Maar ik zat te denken, Niels, ik weet niet of jij dat wel vindt. Dat we het in een soort van zekerheid hoog, gemiddeld, laag doen. Voor 2023. Ja, ik denk dat 2023 soms zelfs nog moeilijk gaat zijn. Maar laten we het inderdaad proberen in de klassificatie van hoog, midden, laag. Ja, toch? Ja, zeker. Zal ik beginnen? Ja, ga je gang. Nou, ik denk dat er sowieso... Eigenlijk is dat al aan het gebeuren. Eigenlijk is 2023 in november begonnen. November 2022 met de komst van ChatGPT gebouwd op GPT-3. Dus wat we nu zien is dat er een veelvoud aan applicaties toepassingen worden gebouwd op GPT-3, op ChatGPT. En ik denk dat in 2023 dat we een explosie krijgen van zinvolle, flauwekul. Nou, alles zeg maar in die hele scala aan applicaties gaan er komen op die technologie. Ja, ik denk dat we die wel op zekerheid hoog kunnen zetten, Joop. Als we die klassificatie moeten geven. Kunnen we bijna wel afvinken. Eigenlijk is dat al bijna bereikt, ja, inderdaad. Nou, ik had dat linkje ook naar jou gestuurd van een applicatie waarbij je slides kan maken. Zij hebben gebruik gemaakt van zowel, ik denk zowel GPT-3 als DALI. Dus wat ze eigenlijk doen is dat je alvast een titel kan geven van je presentatie. Maak die slides. Je krijgt ongeveer een slide of acht. Wat hij waarschijnlijk vraagt aan GPT is doen we even een outline op dit onderwerp. Vervolgens per outline genereert hij tekst. En daar genereert hij ook plaatjes bij. Best wel heel erg cool, moet ik zeggen. Als het een beetje generiek onderwerp is, doet hij het echt wel heel erg goed. Oh, je hebt hem al geprobeerd in de praktijk. Ik heb me aangemeld. Ik heb nog niet de tijd gepakt om hem op te pakken. Ik ben eerst in de chat GPT gedoken. Die mij al ondersteunt in heel veel verschillende vraagstukken. Dus daar ben ik wel blij mee. Maar dit was inderdaad wel hetgeen waar ik in de volgende stap naar op zoek was. In plaats van individuele plaatjes met DALI 2. Echt naar slide decks voor inspiratie. Dat je kan denken, oh maar zo had ik er nog niet naar gekeken. En dit zijn inderdaad de punten die ik wil overbrengen. En wat voor plaatjes passen daarbij. Dus ja, wat dat betreft match made in heaven die combinatie. En inderdaad, ik denk dat er nog veel meer van dit soort toepassingen op korte termijn, hele korte termijn aan zitten te komen. Van mensen die hiermee aan de slag gaan. En dat met zaken die natuurlijk nog vaak in preview zijn. Dus kan je nagaan als dit breder ingezet gaat worden. Absoluut. En waar de AI community ongeveer ook wel zeker van is, is dat GPT 4 uit gaat komen. Aankomend jaar. Dus dat OpenAI met de volgende versie gaat komen. Getraind op nog meer data. Daarvan is wel, dus ik denk zeg maar het uitkomen daarvan. Dat is wel met hoge zekerheid. Wat dat gaat inhouden, GPT 4. Ik denk dat we dat nog heel moeilijk kunnen voorspellen. Heel veel denken dat dat met getraind is op nog meer data. Misschien meer talen. Dus dat die bijvoorbeeld beter Nederlands ondersteunt. Maar wat dat ons gaat brengen, Dat moet ik nog wel even zien. Ja, en dan heb je het met name over de techniek of de oplossing zelf. Nog niet wat mensen ermee gaan doen. Nee, meer. Ja, wat gaat het? Wat gaat het bieden? Is het alleen maar getraind op meer data? Gaan ze de ervaringen van chat GPT waar ze toch anders hebben getraind? Dat ze hebben proberen zeg maar om misbruik en dat soort zaken eruit te halen uit zo'n groot taalmodel. Of ze die technieken ook hebben gebruikt zo direct in GPT 4. Of dat het vooral, wat ik net zei, trainen is op nog meer data. Ja, of gaan ze een bepaald gebied in waar ze meer de details in willen voor bepaalde data. Dat zou natuurlijk ook nog een optie zijn die gekozen kan worden. Meer de actualiteit integreren. Dus je hebt nu een hele afgepakende trainingsset. Dus bij GPT 3 weet je precies van tot die datum heeft hij kennis. Alles wat je je daarna vraagt. Ja, daar kan hij. Hij probeert de chocolade aan te maken, maar dat wordt een heel raar smaakje. Dus dat klopt nooit. Ja, mooie poging. Maar het gaat er niet worden. Ja, ik zag een voorbeeld daarvan. Iemand vroeg, wie is de wereldkampioen geworden? Voetbal. Nou, dat is natuurlijk heel recent. Er werd wel gezegd Argentinië is wereldkampioen geworden. Waarom? Geen idee. Maar vervolgens zei hij wel, ja, de finale is gespeeld in Moskou. Want dat was de vorige WK. En daar haalde hij van alles door elkaar. Dus Argentinië was waarschijnlijk een goede gok. Maar niet meer dan dat. Ja, dat is wel inderdaad een stap die wel interessant is. En voor de luisteraars. Ik heb je vorige podcast die je samen met Jero hebt opgemaakt. Die heb ik helemaal zitten luisteren. Dus voor de mensen die nog niet geluisterd hebben. Misschien nog even een shout-out naar die opname. Waarin je ook goed toelicht wat het nu wel is en wat het niet is. Misschien kan je toch nog even twee, drie zinnen. En ik weet dat het heel weinig is. Maar toch eens even kort zeggen. Wat is ChatGPT dan? ChatGPT is een applicatie uiteindelijk door Openerjaar gebouwd. Bovenop GPT-3. GPT-3 is wat ze noemen een foundational model. Het is getraind op ontzettend veel taal. En het is een hele slimme papagaai. Dus hij kan met al dat soort woorden. Hij heeft een hele rijke vocabulaire. Kan die dingen gaan herhalen. En met ChatGPT kan je in een dialoog. Kun je met dit AI-systeem. Kun je vragen stellen en doorvragen. Ik denk dat dat het en het heel kort is. Ja, zeker weten inderdaad. We zullen het linkje opnemen in de show notes. Echt een aanrader inderdaad. Ja, hele leuke sessie. Dank je. Ja, ander is de AI Act. Daar zijn we natuurlijk al een tijd mee bezig. Nou, ik durf met zekerheid te zeggen dat die er nog niet komt. Aankomend jaar. Nee. Dat we er wel veel over gaan horen. Zeker. De Europese ministers hebben in ieder geval akkoord bereikt. Over de wetgevingen die eraan gaat zitten komen. Maar de invoering zal nog een tijdje op zich wachten. En dan helemaal de uitvoering. Dus dat er ook gehandhaafd wordt op die wet. Nou, dat is absoluut nog niet in 2023. Wat me wel deugd doet. En dat durf ik wel met zekerheid te zeggen. Is dat de activiteiten om ons klaar te maken. Die sneller in ieder geval de wet vooruit. Ja. Zie je dat ook? Ja, dat zie ik ook. Een recent artikel op de Computable wees me daar ook al op. Is inderdaad dat de autoriteit persoonsgegeving over de overeenstemming had bereikt. En dat ze dus aan het opzetten zijn om een soort van waakhond of algoritmische toezichthouder in het leven te roepen. En in 2023 al moet gaan richten op het signaleren van in ieder geval risico's. En ook met verbeteringen en samenwerkingen moet gaan komen om die risico's te mitigeren. Dus dat zijn wel de eerste stappen in die richting wat mij betreft. Ja. Nou, en ik zie ook al dat er opleidingen worden aangeboden. Rondom bijvoorbeeld een impact assessment rond AI-systemen. Er komen allerlei juristenbureaus. Hoe zeg je dat? Juridische bureaus. Advocatiekantoren zijn hier al mee bezig. Je ziet dat er voorbereidingen getroffen worden op de invoering van deze wet. En wat mij in die zin extra deugd doet, is dat er daardoor meer aandacht komt rondom explainable AI. We hebben natuurlijk vaak over gehad, zullen we het denk ik ook nog vaak over hebben. Omdat dat het verschil maakt uiteindelijk tussen een waardevol systeem en een niet waardevol systeem in mijn ogen. Parantie is een belangrijk gedeelte in die wetgeving. En dan kom je heel snel terecht in de uitelegbaarheid. Dus ik denk dat het alleen maar goed is dat daar meer aandacht voor komt. Ja. Ik zie daar ook wel steeds meer ontwikkeling in de markt. Libraries die beschikbaar worden gesteld om je daar verder in te gaan ondersteunen. En ik denk dat dit een katalysator kan zijn om meer focus op die toepassingen en implementaties in de praktijk. Op explainable en transparantie erop. Ja, echt te kunnen creëren. Dus ook meer code ondersteuning en mogelijkheden daarvoor. Ja, precies. En je had ook nog gekeken naar het algoritmeregister dat er geopend is. Ja, er is natuurlijk sowieso heel veel registers beschikbaar. Ook met welke data er beschikbaar is over jou vanuit de overheid. En dit is op algoritme.overheid.nl. Zullen we het linkje ook opnemen in de notes. Maar daarin worden dus algoritmes beschreven. En eigenlijk best wel uitgebreid. Over waar wordt het toegepast? Wat is de afdeling? Hebben ze een bepaald beleidsterrein waarin ze acteren? Wat voor type algoritme het is? Nou, en nog veel meer. Je noemde net al IAMA. Dus de impact assessment. Ook die, als die ingevuld is, kan je daar terugvinden. Dus eigenlijk wel een heel mooi kader waarin je de basisinformatie beschikbaar stelt. Over in ieder geval de algoritmes die binnen de overheid gebruikt worden. En er staan er op dit moment al 102 in. Dus mensen die willen. Ga eens even kijken naar wat voor algoritmes de overheid dus mee bezig is. Echt zeker even kijken. Ja, cool. Wat mij betreft zijn dit wel de dingen, zeg maar. Nou, waar we met hoge mate van zekerheid kunnen zeggen. Want dit gaat wel in 2023 gebeuren. Dan komen we denk ik op waar het iets moeilijker wordt. Iets minder zeker. Maar wat ik zie gebeuren. En dan gaan we misschien weer een klein beetje terug naar dat hele GPT gebeuren. En zo al die taalmodellen. Dus je hebt ze natuurlijk ook voor plaatjes. De DALI, de stable diffusion, dat soort zaken. Wat we gaan zien is dat taal, images, video. Dat dat denk ik ook veel meer gemixt gaat worden. Nu zijn dat allemaal verschillende modellen. Die je ook verschillend aanspreekt. Ik verwacht bijna iets minder grote zekerheid dan dat we in 2023 modellen gaan zien. Waar dat een beetje door elkaar heen gaat lopen. Een van de dingen die ik bijvoorbeeld al gezien heb, is eigenlijk taal, beeld, geluid. En dat heet riff fusion. Dat is een variant op stable diffusion. En naar riff. Een gitaar riff. Dus wat ze, riff fusion. Wat zij hebben gedaan, de makers daarvan. Die zeggen van ja, audio laat zich ook uitdrukken in plaatjes. Dan krijg je een audiospectrum. Oké. En zo'n audiospectrum laat zich dus weer terug omzetten naar geluid. Nou is dus dingen als DALI, stable diffusion, is dus heel goed in taal omzetten naar plaatjes. Dus je kan dus taal omzetten naar een audiospectrum. Dus ik kan zeggen, maak een stukje rockmuziek, maar dan gespeeld op viool met een dwarsfluit erdoorheen of zo. Iets heel apart. Maak die een audiospectrum van. En die kan die dus daadwerkelijk laten afspelen. Oeh. Waanzinnig. Oeh. Ik zie mijn volgende PowerPoint met achtergrondmuziek en video's al gecreëerd worden in mijn hoofd. Precies, precies. Ja. Oh, gaaf. Ja, dus dan hebben we het ook echt dat het model dat met meerdere inputs, outputs zou kunnen. En niet zozeer het chainen van verschillende modellen. Want dit zou je natuurlijk op vlakgebieden al kunnen toepassen door meerdere modellen achter elkaar te chainen en van elkaar gebruik te maken. Maar je ziet wel de stap dus echt naar een model die dat allemaal zou kunnen gaan ondersteunen. Ja, ik verwachtte dat dat in ieder geval geprobeerd wordt. En hoe goed dat gaat zijn, dat weet ik niet. Maar dat gaat geprobeerd worden. Ja. En het leuke is, want ik noem stable diffusion. Stable diffusion is een open source variant van Dali 2. Dus OpenAI heeft natuurlijk een waanzinnig budget en resources om dit soort dingen te maken. En wat zo fijn is, is dat we nu open source varianten krijgen. Stable diffusion is helemaal open source. Heeft minstens een net zo goed model ontwikkeld. Hugging face heeft dat gedaan voor grote taalmodellen. We hebben denk ik best wel lang gedacht van de big tech is eigenlijk niet mee te concurreren omdat zij zoveel middelen hebben. Maar we zien nu twee hele succesvolle initiatieven. Die ook heel, ja, eigenlijk, hoe zeg je dat in het Nederlands, dat ze het matchen. Dus dat ze op hetzelfde niveau komen. En dat het ook heel breed wordt ingezet. En daar ben ik heel blij mee, want we hebben echt competitie nodig ten opzichte van de grote bedrijven. Ja, inderdaad, tegen de Googles, de Microsofts en de grote jongens met grote budgetten. Daar concurrentie tegen bieden inderdaad. Zodat je in ieder geval de keuze kan houden om andere oplossingen neer te gaan zetten inderdaad. Want dat vraag ik me wel af, waar gaan we heen met het license model? Want het wordt nu natuurlijk heel vaak gebruikt in de praktijk. Maar het is nog niet helder, hoe gaan we met onze licentiemodellen om? En daar heb ik wel wat vraagtekens bij, waar we daarheen gaan in de toekomst. Ja, ik denk voorlopig dat dat nog heel traditioneel zou zijn. Dus OpenAI, die vraagt nu gewoon een bepaald bedrag per call, API call, en hoeveel tokens je gebruikt. Dat is heel erg, zoals je dat als je cloud resources gebruikt. Dan moet je ook, het is een wat moeilijker rekensommetje wat erachter zit. Maar uiteindelijk betaal je voor gebruik. En wat zij natuurlijk hopen, is dat zij, omdat het een foundational model is, een fundament. Dat daar dus applicaties op gebouwd worden. Dus dat er zo op die manier veel geld binnenkomt. Ja, veel requests. Ja, maar het is wel fijn, weet je. Kijk, bij open source zitten ook misschien andere doelstellingen achter dan de commerciële partijen. Dus alleen al, zeg maar, dat je verschillende doelstellingen hebt, zorgt ervoor dat je elkaar denk ik ook scherp houdt. Dus ik denk dat het daardoor ook goed is. Ja, waarbij we eigenlijk ook, wat mij betreft, dan altijd weer terugpakken in dat transparantie. En het stukje explainability, waarom je dus ook goed kan kiezen wanneer je welke modellen wel en wanneer je bepaalde modellen niet zou willen inzetten. Ja, wat bij de huidige grote taalmodellen en zo nog best wel een heel groot issue is. Wat ook, waar we in ieder geval een discussie over krijgen in 2023, is ook al begonnen, is gaan deze taalmodellen een verandering zorgen in hoe we zoeken? Dus wordt dit in enige lijf vorm concurrentie voor Google, ja of nee? Hoe zie jij dat? Ik zie daar zeker een kentering in qua search. Ik wil niet zeggen dat Google vervangen gaat worden. Ik pak het toch wel even naar de podcast die jullie met search engine specialist en optimalisatie gesproken hebben. Ik denk dat het ernaast gaat komen. Dat is hoe ik het nu zelf ook al gebruik. Is om als ik kleine stukjes tekst zelf moet schrijven op een bepaald onderwerp. Ja, dan kan ik gaan nadenken, gaan schrappen. Ik kan ook me laten inspireren door een chat GPT antwoord en daarop weer verder gaan. Dus in plaats van dat ik zou searchen naar vergelijkbare teksten via Google, gebruik ik nu ook regelmatig chat GPT om met name stukjes tekst te genereren. Wat mij weer inspireert bij het schrijven van mijn eigen teksten. Dus ik denk dat het afhangt van wat voor search je gaat doen en wat je doel is. Waardoor je het anders gaat inzetten. Dus ik denk dat het een andere variant van search is. Ja, ik verwacht ook zeker niet dat Google vervangen gaat worden. Google is wel wakker geworden. Dat wel. Ja, zelf heb ik gemerkt. Ik moest laatst voor een project, moest ik partencode gaan schrijven. Nou doe ik dat al niet meer zo heel vaak. En dan ook nog met plaatjes. En daar wilde ik allerlei berekeningen op uitvoeren. En nou ja, niet heel excentriek. Maar ook niet iets wat ik dagelijks doe. Zou ik dat gegoogled hebben? Zou ik daar weer zelf zeg maar, zou ik waarschijnlijk op stack overflow dingen uit zijn gekomen? En zou ik dat zelf weer chocola van hebben moeten maken? Van hoe zou dat toegepast moeten worden bij mij? Wat ik nu heb kunnen doen is echt stap voor stap een chat GPT vragen van. Oh ja, weet je. Hoe laat ik plaatjes in? Hoe zet ik ze onder zwart-wit? Hoe lees ik alle pixels uit? Hoe doe ik daar bepaalde berekeningen op? En wonder boven wonder, al die code deed het ook. Dat vond ik eigenlijk nog het meest bizarre. Dat is wel grappig inderdaad. En ik kreeg niet alleen die code, maar ik kreeg ook uitleg wat hij aan het doen was binnen die code. En dat was wel fijn om te lezen. Dat ik dan ook weer even snapte van, oh ja, maar als ik dan dit en dit wil veranderen, dan kan ik dat daar even doen. Het was een soort van commentaar to the max die je krijgt. En dan zie je ook trouwens weer hoe belangrijk het is dat je goed commentaar hebt trouwens. Ja, zeker weten. En ja, als ik het zo hoor, als ik je zo hoor praten, is het eigenlijk alsof je dus even met een collega of met een trainer aan het praten bent. Van, goh, ik probeer dit te bereiken. Jullie doen dit heel vaak. Help maar hier eens even bij. En dat doen we niet in een search. Dat doen we in een conversatiemodus. Want je gaat weer een vervolgvraag stellen. En dat is denk ik wel een kentering in hoe we zoeken, hoe we eigenlijk informatie tot ons nemen. Alsof je tegen een collega aanpraat. Dus de rubber duckieing. In combinatie met ook nog extra nieuwe inzichten. Ja, dat is wel rubber duckie aan steroids, zeg maar. Precies, ja. Een hele goede... En wat ik ook langzaam zie komen, en ik denk dat dat in 2023 ook wel een issue gaat worden. Dan gaan we het hebben over sustainable AI. Heel langzaam begint dat te komen, dat er nagedacht gaat worden van niet alleen hoe AI ingezet kan worden, om duurzaamheid te verbeteren. Maar ook dat er gevraagd gaat worden, zeker bij die hele grote modellen die heel veel tijd en energie, en dus energie verbruiken, dat er ook nagedacht wordt van, maar hoe zou je dat nou energiezuinig gaan kunnen doen? Dus ik denk dat daar in 2023 iets meer aandacht op zal zijn. Ik denk niet groot in de media of zo, maar voor het vakgebied dat dit meer aandacht gaat krijgen. Ja, mijn gevoel is er wel bij dat dat een onderstroom gaat zijn die op de achtergrond al gaat spelen en pas later de mainstream in zal gaan. Dus ik denk dat dat wel een wat langere termijn is, maar wel een noodzakelijke inderdaad. Als je kijkt naar hoeveel computer nodig is voor die foundational models en als je dat iedere keer gaat bijwerken. Ja, wanneer is dat goed is goed genoeg? Of hoe kunnen we daar anders mee omgaan? Wel een hele belangrijke. Ja, en het gaat dan niet uiteindelijk alleen maar om dat soort hele grote modellen, maar voor alle modellen die we aan het maken zijn, die zijn natuurlijk gewoon heel resource intensief. Dus daar gaat denk ik best wel heel veel gevraagd worden over, ja, hoe krijgen we hergebruik over wat je al getraind hebt? Hoe kan je makkelijk iets bijtrainen ten opzichte van wat je hebt? Hoe kan je modellen snoeien zodat ze kleiner worden, waardoor je minder hoeft te trainen? Misschien hebben we minder data nodig waarbij we uiteindelijk dezelfde uitkomsten gaan krijgen. Aan de wetenschappelijke kant zie ik dat al gebeuren. Dus ik zie wat papers zie ik voorbij komen. Ik denk dat dit wel een thema wordt, zeker gezien de energiecrisis die we hebben, dat daar iets meer aandacht voor komt. Ja, en ik denk ook economy of scale. Als we dit vaker gaan toepassen en we gaan het allemaal doen en we gaan allemaal diezelfde rekening betalen, dan zal er op den duur een truc of een handigheid in van gemaakt worden om dat weer qua kosten te kunnen minimaliseren en daarnaast ook qua compute en dat soort zaken. Dus ik denk dat dat wel iets is, zeker wat meer gaat spelen. Maar wel iets denk ik op de achtergrond. Ja, zeker. Dan denk ik dat er nog een paar zijn die we echt, nou ja, dat is een beetje zo zo, wat er of dan wel of niet in 2023 gaat gebeuren. Wat we zien, wat in ieder geval onzekerheid gaat geven, is dat de hoop van die big tech bedrijven zijn bezig met enorme ontslagen. En ze zetten natuurlijk ontzettend veel geld, miljarden, miljarden in op onderzoeken rondom AI. Ben ik wel benieuwd wat voor effect dat gaat hebben in 2023. Ik dacht dat het meta was uit mijn hoofd. Die hadden al een flink deel gesneden in de AI afdeling. Nou ja, dat zal onzekerheid geven voor 2023 hoe dat verder gaat. Of dat misschien de ontwikkeling wat remt of niet. Ja, ik heb daar niet echt zelf een beeld van. Dus ik hoor wel wat je zegt. Nee, ik durf daar niet echt iets over te zeggen. Inderdaad, ik hoor veel ontslagen. Maar hoeveel er dan echt in de AI zitten, dat durf ik niet te zeggen. Als je kijkt naar Twitter, is het natuurlijk wel een speciaal geval. Maar er waren natuurlijk gewoon hele afdelingen weggesneden. Dat gaat natuurlijk impact hebben als andere partijen dat ook gaan doen. Ja, dan gaat er kennis weglopen. Maar goed, die kennis gaat ook weer ergens heen. Dus ja, wat gaat dat weer nieuws opleveren, denk ik, in die zin? Nou, toch Twitter, goed dat je dat noemt. Want daar waren inderdaad hele afdelingen weggesneden. Maar dat zat ook vooral in de moderatie. Deel, dus dat ging over of iets biased was. Daar zat denk ik best wel heel veel AI onder om ze te ondersteunen. En als je dat soort dingen niet meer doorontwikkelt, heb je daar natuurlijk ook weer geen research onder. Dus eigenlijk is dat een heel goed voorbeeld. En ben ik benieuwd, wat gaat dat betekenen? Want uiteindelijk, die bedrijven waren wel ontzettende grote drijvende krachten achter dit soort onderzoek. Dus ik ben heel erg benieuwd hoe zich dat doorzet. Zeker weten. Houden we in de gaten. En wat mij betreft, ik weet niet hoe we in de tijd zitten. Nog een paar minuutjes en dan gaan we dit jaar of dit seizoen eigenlijk toch echt wel afronden. Ja. Hebben we vuurwerk, sterretjes? Oeh, die special effects heb ik niet ingeladen. Voor de volgende keer. Voor het nieuwe seizoen. Het laatste is misschien, en die zekerheid is heel laag, maar ik denk dat er nog iets van een, in de media een groot AI schandaal gaat komen. Welke weet ik niet, maar dat zit er natuurlijk aan te komen. Weet je, met AI, het is nog living on the edge. Zeker gezien dat er alleen nog maar zelfregulering plaatsvindt. Er moet ergens een uitglijer komen die ons ook een beetje gaat terugwerpen. Waarvan wordt gezegd van, ja, waarbij wij echt ophef gaan krijgen. En dat mensen zeggen, nee, dat mag nooit meer gebeuren. En dat er op dat moment zeg maar een rem gaat komen op iets wat we op dit moment helemaal niet zouden willen. En dat dat eigenlijk het, nou ja, niet de toekomst in de weg staat. Het is veel te groot, maar wel, nou ja, wat ik zeg, een rem op de vooruitgang. Want ik denk juist met die AI wet zijn we juist op de goede weg en met die juiste regulering. Dus heel erg genuanceerd en goed over nagedacht. En dat we dan in één keer paniek krijgen of zo. Daar ben ik bang voor in ieder geval. Ja, ik ben daar niet bang voor. En ik durf me eigenlijk nog wel iets scherper te stellen. Die gaat gewoon plaatsvinden in 2023. Overal waar nieuwe technologie is. Dit soort mogelijkheden als een chat GPT. De ontwikkelingen die zo heftig snel gaan. Ja, die gaat gewoon plaatsvinden in 2023. Ik weet ook niet waar. Ik weet niet welk vak, welk deel van de maatschappij. Maar dit gaat ons in 2023 raken. En het is ook geen goed. Goed in de zin van af en toe eventjes een stapje terug. Om weer even met de helikopterview ernaar te kijken. Om even de spiegel voor te houden. Wat we nu doen. Doen we dat op de juiste manier? Waar inderdaad de wetgeving al heel veel bij gaat helpen. Maar af en toe, ja, die schandalen zijn heel erg spijtig. Maar soms wel nodig. Om met elkaar weer eventjes te herijken. En meer op explainability, meer op sustainability gaan zitten. Dat geeft alleen maar kracht op die zaken die op de onderstroom zitten. Dus ja, helaas denk ik dat er toch zeker nog zo'n schandaal aan zit te komen. Maar dat het ons op de lange termijn goed gaat doen. Nou, dat is toch wel een fijne afsluiten. Ja, inderdaad. Laten we hem op deze noot inderdaad afsluiten. Joop, bedankt voor dit fijne seizoen. Met record aantal afleveringen. Dus we hebben weer nieuwe records. Een record aantal luisteraars ook. Heel fijn. Dus wat dat betreft hebben we weer een aantal nieuwe records te breken in het volgende seizoen. Dus geniet van deze aflevering luisteraars. Allemaal bedankt voor het luisteren van dit seizoen. En we zien jullie graag in het volgende seizoen weer terug. En ze staan al gepland. Dus volg ons op de social media. Je favoriete podcastkanaal. En fijne jaarwisseling. En tot het volgende seizoen. MUZIEK