
Jackson og Grue leser bøker: En litteraturpodcast
Forfatter Ida Jackson og forfatter Jan Grue er gift og kollegaer.
I denne podcasten leser vi bøker og snakker om dem - tenk på det som en lesesirkel for åpen scene!
Vi vil ha med deg!
Hver måned slipper vi en liste over hvilke bøker vi kommer til å snakke om på podcasten, så du kan lese sammen med oss!
Du finner månedens bøker på idajackson.no/podcast
Jackson og Grue leser bøker: En litteraturpodcast
Den enes dystopi er den andres utopi: Aksel Braanen Sterri og Ida Thorsrud er gjester i live spesial-episode
Hva er forskjellen på kunstig intelligens og ekte intelligens?
Blir AI menneskehetens undergang?
Hvordan ser AI-implementeringen ut for en personvernsjurist som jobber med kommuner og forvaltning?
Har Jan Grue misforstått hva altruisme er?
Er hans nye thriller dystopisk - eller utopisk?
I denne spesial-episoden får vi besøk av filosof Aksel Braanen Sterri og personvernsjurist Ida Thorsrud.
Begge har lest Jans nye roman, Det kinesiske rommet og er klare for å snakke om meningen med livet og problemene med AI.
Du finner Aksel Braanen Sterri her: https://akselsterri.no/
Du finner Ida Thorsrud her: https://www.linkedin.com/in/ida-thorsrud-31567498/
Du finner Jan Grues nye roman her
Teksting av Nicolai Winther, hva kunstig intelligens er og ikke er, hvilke fortellinger vi har om teknologien og også hvordan den kan eller ikke kan brukes til kunstnerisk produksjon. I dag er mitt håp og mål at vi skal enda mer inn i det filosofiske bakrommene om det kinesiske rommet, som er en filosofisk thriller som kommer på Jyllandal i løpet av en dag eller to, Jeg tror. Kanskje den skal være i butikken 4. Oktober. Så som husets markedsavdeling er det min jobb å minne deg på at vi har. Altså, hvis du er her fordi du vil høre om AI, fordi du er bekymret for litteraturens fremtid, så er det viktigste du kan gjøre for litteraturens fremtid å faktisk lese bøker, når så liksom, ja, det er liksom, kjøp bok, les bok. It's good for you og bra for kulturen og bra for Jan da, som har skrevet boka og får penger for den for å være helt gjennomsiktig, alright.
Speaker 1:Så dagens tema er altså mer det filosofiske bak den filosofiske thrilleren, men det er også jeg skal ikke si mer over i de ekte horrorelementene. Så i dag kommer vi til å invitere på to gjester Aksel Brann Stærri og Ida Torsre. Aksel Brann Stærri er filosof og fagsjef i tenketanken tankesmin langsikt, som jobber med å finne ut hva vi skal gjøre langsiktig med politikken. Vår Ida Torsdru er personverdensjurist, som betyr at det er en av de store internasjonale spesialitetene på hva i all verden det er meta og alle de store tech-tingene å holde på med på ekte og hva vi faktisk gjør med persodataene, som betyr at vi da har de filosofiske perspektivene og så har vi det. Hvor brenner det på do akkurat nå. Perspektivet som vi skal få besøka i dag, buckle up, for dette kommer til å bli chat-gapetet sier at hver eneste gang jeg ber den skrive en morsom tekst, så avslutter den alltid med buckle up, it's going to be a wild ride. So buckle up, it's going to be a wild ride ok.
Speaker 1:Jan, hvordan går det an å skrive en filosofisk thriller? Hva i all verden er en filosofisk thriller?
Speaker 2:Ja, ikke ved hjelp av TrettKPT i hvert fall, det har vi fått testet ut nå. Men her har jeg prøvd å skrive en spenningsroman som får deg til å tenke, eller en tankeroman som er spennende å lese. Så får vi se om det har gått bra eller dårlig. Det skal ikke jeg være den som jeg skal ha noen meninger om. Men nå gjør vi noe nytt.
Speaker 2:Vi har et digitalt lanseringsarrangement med folk som kan mer om kunstig intelligens enn det denne forfatteren kan, og så har det vært morsomt å se hvordan noen temaer utvikler seg underveis i samtalene. Og da har jeg også funnet ut litt mer av hva er det jeg har gjort når jeg har skrevet denne filosofiske trilleren. Og jeg tror, hvis jeg skal ramme inn denne praten her på en eller annen måte, så kommer det litt ut av den samtalen vi hadde i går med Bård og Taina, hvor jeg har følelsen av at vi kommer til å snakke litt om dystopier. Og så kommer vi kanskje til å snakke mest om hvordan de dystopiene vi er mest redd for er ikke nødvendigvis de dystopiene som vi jobber oss inn i uten helt å tenke over det. Det er et gjennomgangstema i romanen.
Speaker 2:Der skjer det en god del skumle ting, men de skumle tingene som skjer er nok litt mer, litt mer hverdagslige og kanskje også litt mer uventede, nettopp fordi de store, skumle scenariene styrer tenkningen vår på en helt annen måte. Nå ser jeg, at det er noen som kaller seg for Aksel Sterri i chatten, så la oss se om det er menneske eller bot.
Speaker 1:Out to panelist. I'll be joining Woohoo. Out to talk, ask to unmute Og ask to start video.
Speaker 2:Hallo.
Speaker 4:Hallo.
Speaker 2:Det ser ut som en ekte aksel.
Speaker 3:Det er så vanskelig å si disse dager.
Speaker 2:Det er veldig vanskelig å si, men i hvert fall, så er du her og kan snakke på vegne av akselbrånens deri, og det er jo veldig fint. Så et etterhåndssted må vi begynne, og jeg tenkte at vi skulle begynne med filosofien.
Speaker 3:Jeg vet ikke om du trenger deg selv som filosof. Det har vært en lang. Det er jo et eller annet kajn, at man kaller seg selv filosof. Så jeg hadde lenge identiteten som statsvitter, og så var det på en måte en aspirerende filosof. Men nå lener jeg meg tungt inn i filosof-titelen noen må gjøre det også i det 21.
Speaker 2:Århundre. Så det er godt å høre. Jeg har jo fusket i faget som i filosofien. Jeg har noen kurs på bachelor-nivå, og det er det. Men en av de tingene jeg forbinder med filosofien, det er jo tankeeksperimenter. Det er et arbeidsverktøy som filosofer eller i hvert fall mange filosofer er veldig glad i. Jeg er også glad i tankeeksperimenter, men jeg kommer nok ofte til dem som forfatter og ikke som filosof, samtidig som jeg tenker, at tankeeksperimenter har noe sånn grunnleggende litterært ved seg. Man forestiller seg en verden, og så bruker man den forestilte verdenen for å si noe om den ekte verden vi lever i. Så jeg tenkte jeg bare kunne ta en liten start der på hva du tenker om tankeeksperimenter og om det har noe å gjøre med det dere driver med i tenketanken, tankesmien eller hva enn den strukturelle metaforen er for den platonske styringsenheten. Du har laget deg Akkurat det.
Speaker 3:Så spørsmålet var nettopp litt om tankeeksperimentet og deres rolle, og jeg tenker at jeg er veldig glad i tankeeksperimenter, men jeg har også fått det bekymret for deres manglende potter i vann. Så filosofen blir ofte liksom liker ikke kritikken som ofte kommer fra på en måte mer fra litteraturen da. For det er jo altså. De fleste har kanskje ikke hørt en del av disse tankeeks, som trollieeksperimentet for eksempel, hvor det kommer en løpende trollie og du skal vurdere om den skal treffe ett eller fem mennesker. Og det litt rare med de tankeeksperimentene er jo at de begrenser seg så ekstremt i hvilken informasjon som du får og på hvilken relevans du har i vårt virkelige liv. Så du har på en måte fullstendig informasjon om hva som skal foregå. Du kan gjøre en ting eller en annen ting, men du kan ikke gjøre noe mer. Du får ikke noe mer informasjon om hva som kommer etter at tankeeksperimentet er ferdig. Da på en måte stopper verden. Så dette får på, at du må være veldig tydelig på hvilke problemer du gir eller du måtte klare de problemene. Og så kommer tankeeksperimentet for å løse akkurat de problemene du skal gjøre, for at det skal være nyttig i det hele tatt. Og jeg tror ofte at de tankeeksperimentene måtte tas ut av sin originale kontekst, som det er brukt på en måte inni filosofien og få sitt eget liv. Og når de da får sitt eget liv i litter, bare i folket, blir det et meme da i folkens bevissthet. Så på en måte blir de mindre kloke da, og jeg tror ikke sånn et problem med dem da og dette gjelder langt inn i filosofien også er at de lukker. Altså, de skal jo på en måte tilgjengelig, de skal på en måte gjøre det mulig for oss å se ting som vi ellers ikke ser, det tydeligere alternativene, det tydeligere på hva som står på spill. Men ved å tydeligere hva som står på spill, så lukker vi oss øynene for så mye. Og jeg har tenkt når du kommer til for eksempel og har vært opptatt av nødsituasjoner, så handler det jo ikke om AI nødvendigvis, men handle i nødsituasjoner.
Speaker 3:Og da bruker man også tankeeksperimenter som nettopp sier du går forbi et druknede barn, skal du da på en måte redde det barnet, selv om det går på kostnader i ekstremt mye av? du har på deg masse dyreklær og alt sånt, som dette er. Og så sier jo, peter Stien bruker et eksempel til å si siden du var villig til å redde et barn og du var villig til å offre kanskje 50 000 kroner for å gjøre det i form av dyreklær, og så burde du også donere 50 000 kroner til Against Malaria Foundation. Spørsmålet er har vi mistet noe når vi prøvde å se på dette problemet? hvor mye du skal gi til fattige i Afrika gjennom metaforen eller tankeeksperimentet, det å redde barn fra druknings ulykken? Så jeg tenker det er på det mest relevante hva er det man ser og hva er det man ikke ser når man bruker tankeeksperimenter? Og så kan dette kanskje glie over på ei, men det er faen min å umiddelbart ideere.
Speaker 2:Vi får se om vi noensinne kommer oss til den kunstig intelligensen.
Speaker 2:Jeg er veldig glad for at du nevnte det tankeeksperimentet til Peter Singer, hvor det også tar som utgangspunkt, at sånn den handlende parten i tankeeksperimentet er en mann som går tusen kroner og det verste som kan skje med dem er at de er klarene gårdystykker.
Speaker 2:Det er jo også et fint utgangspunkt for et scenario og definitivt noe som romanforfatteren i meg får lyst til å utforske mer i detalj da, og det er jo på en måte det jeg har gjort. Men altså en av grunnene til at jeg har jo lest en del ting du har skrevet i offentligheten og for så vidt vært uenig i mange av dem. Men det som jeg på en måte ofte konkluderer med er, at jeg vet aldri helt hvor haren kommer til å hoppe, og dermed var jeg også litt nysgjerrig på nå som du har lest denne boken og fått en snikikk på den Er det en dystopi eller er det en utopi? Jeg har jo laget et lite scenario hvor det sprer seg et virus som gjør folk litt mer til filosofer med utilitaristisk tilnæring til livet enn det de ellers ville vært, og så er det mange som handler deretter Så bra eller dårlig, at folk blir mer opptatt av tankeeksperimenter i hverdagen. Jeg vil gjerne ha din lesning av det.
Speaker 3:Ja, altså, slik, jeg synes at dette er spennende. Altså jeg tenkte når jeg leste boka, så blir man litt sånn, er man selv en filosofisk zombie som du har opptatt av, Ikke sant? Filosofisk zombie for de som ikke har lest boka eller følget til er jo de som. De agerer som mennesker, men de har ikke noe på innsiden. Det er ikke noe. Slik det er å være dem. Det er liksom ikke noe subjekt, det er ikke noe farger og ingenting. De har ikke kvalia. Og man begynner å lure på har man for det er jo det som jeg får fram i boka litt, det er noen som ser ut til å ikke ha mistet det helt ennå kanskje, men at man går fra å være ekstremt levende mennesker, som hele mennesker, med sorg og irrasjonaliteter og kanskje for mye empati, for de er på en måte det meste som de mennesker er. Og så kommer det på en måte dette tankeviruset eller dette som gjør folk litt mer til kjølige kalkulerende maskiner som kan tenke rasjonelt på ting. De lar ikke følelsene stå i veien for å tenke klokt om hva vi bør gjøre. Da er det spørsmålet på hvor man selv befinner seg, på en skala fra det messige, følelsesstyrte, men kanskje mer menneskelige, over i det umenneskelige men likevel rasjonelle individer, og vi drives kanskje hver og en av oss mellom de to, og jeg må jo innrømme at det er kanskje det kontrære i meg, eller så er det det at jeg synes på en måte ultrarisme og på en måte bruke på den forholdørte rasjonelle syn på moral og hva vi som samfunn bør gjøre.
Speaker 3:Så tiltrekker seg jo litt av denne dystopien din. Det var litt det samme som Maldus Huxley med Brain New World. Alle sier herregud, så forferdelig. Og sier, det er ikke så ille, hvis folk elsker å gjøre den kjipe jobben og får noe bra dop for mens de driver med det. Det samme tenker jeg her.
Speaker 3:En ting som spiller en sentral rolle i boka det er jo et spørsmål om aktiv dødshjelp som kanskje etter hvert lirer over en ekstrem tilgjengeliggjøring av den tjenesten. Så når noen har så dårlig liv, at det ikke lenger er verdt å leve, så er det jo bra for dem, er det ikke det? Og kanskje til og med bra for samfunnet, at de ikke skal leve lenger, og det må jo vi som samfunn måtte legge til rette for, Og så er det selvfølgelig. Jeg kjenner jo også på, og dette er jo ting jeg har skrevet. Jeg har vært tilhenger av Akte Dødsel etterfor på ordentlig vis. Men det er selvfølgelig. Jeg er ikke så langt i filosofisk zombieland at jeg ikke kjenner på ubehaget som kommer når man lager sånne podder som uteliggere kan gå og legge seg inn i og termineres. Så jeg får jo det kontrære og min egne syn på at det drar meg i retning av at dette her ikke er så mye av en dystopi som det bør være. Men jeg kjenner det definitivt på Ubagi.
Speaker 2:Ja, nei, men da har jeg i hvert fall truffet én leser med prosjektet, og det er jo det er jo litt. Nei, det er jo disse sånne. Det er jo problemet med å skrive sånn, det er jo et kortsiktig problem og ikke et langsiktig problem å skrive disse dystopiene. Disse kapselene finnes jo, og det var jo en sak nå i forrige uke vel, hvor den ble benyttet for første gang, Altså en sånn kapsel som man kan legge seg inn i, og så blir den fylt med nitrogengass, og det er det, Det var jo ja det er det.
Speaker 2:jeg turlig ikke, men det ble jo kommentert fra sveitsisk ministerhold at det blant annet var store problemer med produktsikkerhet på denne kapselen. Så her kom det til å bli en sak i etterkant, følge dette dystopiske sporet litt lenger, fordi jeg er jo ikke spesialist på langsiktig politikk, men jeg forbinder det litt med en type utilitarisme som har en del å gjøre med effektiv altruisme, som igjen hadde en del å gjøre med det tankeeksperimentet du snakket om i sted med hva er du villig til å gjøre, hva er du villig til å offre av dine materielle, dine egne materielle ressurser og forstå gode ting i eget liv for at andre skal få det bedre. Og så begynner man først å tenke på dette på en rasjonell måte. så er det jo vanskelig å ikke begynne å tenke på fremtiden, ikke bare på menneskene som lever nå, men på hvordan de menneskene skal ha det om ti år, og på deres barn og på deres barnebarn og på hele veien videre.
Speaker 2:Så har det skjedd noe ganske interessant i det, at det virker også for meg som om mange som er opptatt av effektiv altruisme og av langsiktig politikk har nå i det siste også blitt veldig opptatt av kunstig intelligens. Så jeg hadde lyst til å ja og kanskje mer skeptisk til kunstig intelligens enn man kanskje i utgangspunktet ville trodd at man skulle være. Så jeg tenkte, kanskje du kunne snakke litt mer om det også.
Speaker 3:Absolutt. Så da er det til det at jeg tror det er en. Det starter på en måte fra den moralske universalismen da, ikke sant? De aller fleste som ble tiltrukket av effektiv altruisme i starten ble nok på en måte, hadde en form for sånn enten kjøpte logikken i dette tankeeksperimentet til Peter Singer eller bare kjøpte det mye enklere poenget om at, ok, vi lever i Norge, vi er topp 1% av det rikeste i verden, vi har så mye at hvis du tar 50 000 kroner for meg, så gjør ikke det mitt liv noe som helst verre i velferdsterm. Ja, jeg mister noen penger av det, men det gjør ikke livet mitt verre, og det kan redde et menneskeliv i et fattigland, ikke sant? Så det virker som en helt åpenbar ting å gjøre. En ting er at det kan være en fantastisk ting å gjøre, for lov til, å, som noen av disse folkene i denne bevegelsen i en brennende bygning og på en måte ta med seg et barn ut derfra og på en måte si at du har gjort det. Er de sammenlignet med dette? med det, ikke sant? Å donere til effektive bistandsorganisasjoner og dermed oppnå det samme? det er det man på en måte har muligheten å gjøre. Men noe annet er at det er en moralsforpikkelset borte. Det er en geografisk avstand. Den geografiske avstand har ikke moralsk relevans ifølge fytioterister.
Speaker 3:Jeg tror det er god grunn for å mene det, at fra et upartelig ståsted så er de like mye verdt som et barn i Norge, men vi bruker åpenbart mye færre ressurser på dem. Når du da på en måte tenker ok, men hvis det er slik at vi skal ha en upartisk geografi, skal vi ikke på også ha upartiskhet i tid? Og jeg tror et bare sånn tankeeksperiment fra filosofen Derek Parfit er godt for å vise at dette ikke er så dumt. Altså han sier ok, si at du er i skogen på tur og du har med deg en glassflaske, og så knuser du den glassflaska og så vet du at på en måte 50 minutter senere så kommer det noen barn som skal gå gjennom dette samme tråkket og så tenker du skal jeg ta opp disse glassgårdene?
Speaker 3:virker jo sannsynlig at du bør gjøre det. Det er jo dumt å på en måte et barn på en filosofisk. Dette er jo en bit av tankeeksmøtet. Da kan du finne på litt ting. Dette er glass som ikke blir. De blir ikke over tid, så er de fortsatt like skarpe, de blir ikke mindre skarpe over tid, og da kan du se for deg at det kommer et barn om 50 år. Du kan godt si det er 500 år, men det er så mye å si. Dette barnet er enda ikke født, enda Så 50 år vet du at det kommer til å komme et barn og gå over det her Har det betydning for om du skal plukke opp glasset, om det er et barn som er født eller som ikke er født.
Speaker 3:Og for meg virker det helt åpenbart at det tankeleksumentet viser at du bør være nå, eller om du skader et barn om 50 år. Hvis du tar den logikken til sin endepunkt, så er det ekstremt mange mennesker som kan leve gode liv eller som kan skade seg av hverandringer. Klimaendringer er jo det mest åpenbare eksempelet. Vi må unngå å skade dem, men vi må også unngå menneskehetens utslettelser som vil sikre at veldig mange av disse her ikke får lov til å leve gode liv. Og jeg er litt sånn ok, her kan man enten gå med på den logikken i dette argumentet, man kan gå med på sånn jo, ok, alle liv har like mye verdi. Det er relevant om de nå eksisterer eller om de kommer til å eksistere, eller du kan bare tenke jeg er jo glad at jeg ble født, og kan jeg vel ikke det samme gjelde for alle de som vil komme senere.
Speaker 3:Så det er liksom ulike inngangsvinkler inntil dette her. Men når det som effektiv altruister eller i hvert fall den nyere versjonen av effektiv altruisme 1.0, nå har vi en ny effektiv altruisme 2.0 sier at kanskje vår største moralske prioritet må jo være å sikre at den fremtiden blir en fremtid for mennesker og at den fremtiden blir så god som overhodet mulig. Og da er det på en måte spørsmålet hva er de store truslene nå mot å s? Og mange av de effektive altryssene er utrolig begeistret over kunstig intelligens, fordi de tenker at kunstig intelligens kan hjelpe oss med så mange ting. Det kan hjelpe oss med å kurere aldring, som de er veldig bekymret for.
Speaker 3:Aldring gjør jo at de fleste av oss dør, og døden er en tragedie, så det må man unngå. Det kan redde oss mot pandemier. Man kan drive pandemi med virusovervåkning og sånne type ting som AI vil være bra til. Men så er man også bekymret for at AI skal utgjøre den største eksistensielle trusselen mot menneskeheten. Og der er det jo litt sånn ulike igjen, kanskje tankeeksperimenter.
Speaker 3:Det er jo et tankeeksperiment som sikkert noen av dere kjenner, som er fra Nick Bostrom, som er denne paperclip, og dette kommer fra en idé om at for å lage et kunstig intelligenssystem, så må du gi det en form for målfunksjon. Du må ha noen verdier, på en måte i hvert fall, de må ha noen mål. Og si at du gir en AI et sånn simpelt mål som at de skal lage så mange paperclips som overhodet mulig, så vil problemet være at hvis dette blir en ekstremt kapabel system, så vil de kunne tenke at jeg har ett mål, og så blir det en overoptimering i forhold til det målet, og så vil de tenke at nå skal jeg bruke alle mennesker og gjøre dem om, ta atomene deres og gjøre dem om til ressurser som jeg kan gå inn og lage maksimalt antall paperclips, og så vil det ende med menneskehetens utskjellelse. Dette er kanskje ikke den mest plassible måten vi kommer til å gå på, men i det minste er det slik at det er noe i den misalignmenten mellom AI-systemets verdier og våre verdier som kan gjøre at ting går skikkelig galt.
Speaker 2:Ja, så dette diskuterer man da mye i langsiktige politikkredser men nå tror jeg, vi skal få på Ida Torsrud. Ja, da, jeg fikk det til. Jeg fikk trykket på knappen. Da sier vi hallo til Ida.
Speaker 2:Hei, jeg håper, at du har fått høre Aksels diskusjoner nå av bindersoptimaliseren som jo er en fryktelig dystopi, men jeg tror at mitt spørsmål til deg som personvernjurist og spesialisert fagperson når da mange mennesker i sentrale AI-miljøer og langsikkerhetspolitikk-miljøer bruker mye tid på å snakke om og løfte frem i offentligheten problemer med en uendelig mengde binders, er det da noe annet vi ikke får øye på i skyggen av den diskusjonen som muligens også kan være problematisk?
Speaker 4:Ja, det er det jo. Så jeg jobber jo veldig sånn operasjonelt med disse problemstillingene, fordi jeg er en av de som løper etter diverse offentlige virksomheter, andre private virksomheter for å prøve å få dem til å etterleve det de skal. Altså, det vil si, at jeg prøver å få dem til å operasjonalisere de sikkerhetsmekanismene som ofte er inne i lovverket for at man skal ivareta personvern. Og nå kommer det også en AI-forordning som har noen sikkerhetsmekanismer inni seg. Ja, dette kunne jeg snakket mye om. Men det som slår meg når jeg hører på denne diskusjonen er jo først og fremst at oi, oi, allerede nå så har vi problemer med å etterleve og sikre at de tingene som vi trenger å ha på plass for at folk skal få et bra personvern, eller at vi skal ikke bruke denne teknologien på en måte som skader mennesker. Allerede nå har vi problemer med å gjøre det. Så, med den teknologien som gir mer, flere muligheter, så blir de problemer vi allerede har enda større på etterlevelsesiden. Så det som vi liksom ikke ser, ja, det er.
Speaker 4:Jeg tror at feil vil skje om mennesket kommer til å bruke den teknologien på den måten som den kan brukes på og det er det høres kanskje litt sånn selv til å bruke den teknologien på den måten som den kan brukes på, og det er. Det høres kanskje litt sånn selvsagt ut, men ofte innenfor det fagfeltet jeg jobber, så snakker vi. Og innen AI, så snakker vi om tilsiktet bruk og utilsiktet bruk, og jeg tror at veldig mange kommer til å bruke den med utilsiktet bruk på alle måter vi kan bruke den på for å få den mest optimal. Det høres kanskje litt svevende ut, men hver gang jeg er inne i politiske diskusjoner om AI, så sier jo politikerne, våre lederne, våre, at velferdsstaten må reddes med AI, at velferdsstaten den må reddes med AI. Eller liksom man er veldig opptatt av at velferdsstaten den må reddes og man ser til AI som en av de verktøyene.
Speaker 4:Og da digitaliseringsministeren sier at 80% av statlige virksomheter skal bruke AI innen utgangen av 2024, det har vi veldig liten tro på i miljøet. 80 prosent av stadlig virksomheter skal bruke AI innen utgangen av 2024. Det har vi veldig liten tro på i miljøet. Men det viser at man har en veldig tro på teknologien og at man nok røsjer inn i noe som jeg tror at man ikke bør røsje inn. I tror at man ikke bør skynde.
Speaker 1:Så, nå som vi er her mellom tankeeksperimentene, jans skrekkdystopi, slash kanskje litt utopi og hold på å si den utilsiktede, faktiske horroren som de av oss som har jobbet mye med teknologi ofte ser. Det er jo liksom, holdt jeg på å si, lenge før AI. Så har jeg, jeg tror, første gang jeg var med å se noen stjele passord ut av, altså, både Aksel og jeg jobbet i Stor Norsk Leksikon. Og det å se at jo, når alle legene på OS, som i utgangspunktet jobber i veldig sterke sikkerhetssting, skal logge seg inn på StorNorskLeksikon og alle har til passordet passord 1, 2, 3, eller fornavnet sitt med store og små bokstaver som fax, fax, og det er det samme passordet de har på OS-systemet, så skal det ikke veldig mye til for at noen skal inn og kikke i en journal.
Speaker 1:Hvis StorNorskLeksikon har veldig dår sikt av kjeden av informasjonen som flytter seg, ikke sant? Så, siden vi snakker om alvorlige ting, men jeg skal ikke si på tullete måter, så har jeg litt lyst på en sånn jeg skal ikke si en dystopi slash utopirunde på en måte, når vi ser på hvor, hvis dere har noe paranoia om dagen, hvor er det dere har paranoia om dere? Er det et bra spørsmål, eller er det?
Speaker 2:Det er et veldig godt spørsmål. Jeg kan jo ta og bringe det litt tilbake til litteraturen igjen, fordi en av de tingene som jeg merker i meg selv, som er noen som er på engelsk sier man jo terminally online, og det er jo litt sånn det føles, særlig når man skal ut og lansere en bok og flakker rundt på internett og leser seg rundt i online diskursen. Jeg merker jo at språket mitt, og kanskje da også måten jeg tenker på, påvirkes av hvem jeg snakker med, men også av hva jeg leser og hva jeg prosesserer på måter som jeg ikke tror jeg har helt oversikt over. Og et av gjennomgangsmotivene i den dystopien som jeg har skrevet og som jeg vil insistere på at er dystopisk. Det er måten språket kan endre oss på, altså i måten vi tenker på, men også hvordan vi følger verdidommer, i hvordan vi bestemmer oss for å leve, rett og slett gjennom de tusen små kanalene som vi ikke har oversikt over. Det er ikke noe som har spesifikt med kunstig intelligens å gjøre. Det har å gjøre med at vi lever i et samfunn som påvirker oss på alle disse tusen forskjellige måtene, mens det som er interessant og litt uhyggelig, med den generative kunstig intelligensen som har blitt veldig prominent i dag, dette er ting vi snakket mye om i går det at den forsterker en sånn det man i samfunnsvitenskapen kaller regressjon til medianen.
Speaker 2:Den forsterker en bestemt type gjengs, statistisk, gjennomsnittlig, ureflektert og tilgjengelig, veldig byråkratisk språk som har en forflatende virkning på veldig mye rart. Altså, hvis norske forfattere eller forfattere som sånn begynner å benytte kunstig intelligens over en lav sko, så tror jeg det ene er veldig sannsynlig, og det er at bøkene deres kommer ikke bare til å bli dårligere, men de kommer til å bli dårligere på en veldig lik, forutsigbart lik måte. Og det har noe å gjøre med mekanismene i den typen generativ kunstig intelligens som remikser alt som finnes i den menneskelige kulturelle produksjonen, men går mot et gjennomsnitt til en hvertid. Så det er kanskje ikke den mest eksotiske dystopien, men jeg synes det er ganske traurig likevel.
Speaker 1:Vil du fortsette? dystopietoget Aksel.
Speaker 3:Gjerne. Jeg vil gjerne knytte bare en kommentar til det også, fordi jeg synes det er. Jeg er så bekymret for Akadiet. Det er en form for sånn du beskriver først, at det er en sånn garbage in, garbage out, at vi er svamper, så vi blir på en måte det vi leser, så vi må være litt nøye med hvem vi henger med og hva vi tar inn, for det kan tilpå ikke hvordan vi tenker og hvordan vi skriver. Vi bør liksom ikke tenke, for vi står jo midt i en på en måte KI-revolusjon, og vi har noen generative språkmodeller som gir visse resultater i dag. Men du ville jo ikke stått her for to år siden og sett på GPT-2 og sagt sånn, se her, dette er på en måte, de modellene er så. Nå står vi da altså med GPT-4+, og så ser vi, ja, dette her er regression to the mean, dette blir kjedelig språk. Vi vet jo ikke, om to år. Så ser dette her drastisk annerledes ut. Så kanskje er dette mindre av et problem, kanskje blir disse modellene mer kreative. Så det er mulig.
Speaker 3:Den pessimistiske hypotesen er jo, at vi nå lager systemer som gitt på en måte en sånn form for, at de er statistiske systemer, så ender de med å bli nødvendigvis på en måte kjedelige. De blir the average av alt de leser. Men det er ikke nød segwayen til min egen, på en måte, det jeg er bekymret for. For jeg vet at når vi begynner å snakke om disse paperclips og sånn, så er det litt sånn. Det er teit, ikke sant? Men når man tar innover seg at nå har vi de største modeller, flere parametre, det er det som har fungert som en lovmessig sammenheng hittil og det er det som har skapt disse systemene vi ser nå De fortsetter å pøse på med de samme innsatsfaktorene som har tidligere skapt disse modellene her. De tror på at dette kommer til å bli ekstremt kapable systemer.
Speaker 3:De lager også mer autonome systemer i den forstand at de lager autonome agenter som skal operere uavhengig av oss. I dag er disse systemene på en måte reaktive. Vi spør dem om noe, og så gir de oss en input. Og så spør vi dem på nytt nå, og så gir de oss mer input. Men disse systemene skal jo begynne å operere i mange steg og kunne operere som vi mennesker ikke kan gjøre av seg selv. Og da blir det plutselig veldig relevant å tenke ok, vi kan få ekstremt kapable systemer veldig, veldig fort.
Speaker 3:De skal operere i den virkellig verden på en helt annen måte enn det de gjør i dag. Og de, hvordan sikrer du at de har verdier eller har på en måte mål da som er i overstemmelse med vår egen? Det som på en måte skjuler seg, mener jeg mest i det paperclip-eksempelet, er jo at det forutsetter at noen skal prøve å lage en bra maskin, i utgangspunktet selskapet med profittmotiver, sånn at du kan dytte disse på verden. Det gjør meg litt bekymret, og da er det bare mange ting, hvordan dette kan spille seg ut og så videre. Men jeg tror det er tilsettelig ingen jenser for å være ekstremt bekymret da. Og det er det jeg tenker når vi tenker langsiktig på disse problemerne her. Så ja, det er masse problemer med personvern, helt enig, og jeg tror mange av de løsninger vi kan ha på datakontroll kan hjelpe oss å håndtere disse problemerne også. Men her er det noen vanvittige uløste problemer som vi ikke har kontroll på, tenker jeg.
Speaker 1:Og jeg hører en aldri så anelse liten marxistisk kritikk i bånd der. For det er jo faktisk sånn, at det er no som bestemmer både utviklingen og spørsmålene. Ok, Ida, vil du fortsette på paranoia-toget?
Speaker 4:Ja, det var meg. Så min store ting, som jeg er skikkelig bekymret for, det er hvordan vi bruker AI som beslutningsstøtte. Fordi det er jo sånn at vi ikke vet hvordan AI kommer til beslutninger og hva er den svarte boksen fra input til output. Og da er det et baseline innenfor det jeg driver med, at man skal bare bruke AI som beslutningsstøtte, ikke til å ta beslutninger, men den grensegangen på. Når vi som mennesker har et system som er så fantastisk og som forteller oss ting med overbevisning, så er det veldig lett for oss å gå fra beslutningsstøtte til beslutning, også fordi det er veldig enkelt for oss å legge det den sier til grunn. Jeg vet jo om folk som har jobbet operativt med skole, med velferdstjenester, som da Kjetge PT kom, så trodde man at de var sannhetsmaskiner og at man kunne bruke dem til, for eksempel, plagiatkontroll. Det har skjedd. Når jeg kommer borti det, så stopper vi det selvfølgelig. Men hvordan AI kan gjøre at vi outsourcer en del beslutninger, det er jeg bekymret for.
Speaker 2:Det går jo en rød tråd her. Jeg er både veldig enig i det du akkurat sa, og så tenker jeg på det du kommenterte på Aksel, som jeg forstår at også er.
Speaker 2:Ve ser ikke ut som om det vil skje noe annet enn at disse systemene er i all hovedsak eid av transnasjonale selskaper med et veldig sterkt profitmotiv, og sånn sett så kan man jo også si, at her er det historien som gjennomtar seg, for de selve selskapsformen, som disse aktørene er, er jo også i en viss forstand en autonom agent, som er ikke menneskelig og som opererer etter noen insentiver og styrer etter noen mål, som gjør at de ofte handler på tvers av mange menneskers interesser.
Speaker 2:Jeg så jo også i en sånn det er mer sånn i meme-humor-sjanger, at Open Eye, som har bygget ChatGPT, begynte jo sitt liv som en non-profit, som en stiftelse, og så er de nå i ferd med å bli giret om til et for-profit-selskap, noe som mange har advart mot lenge. Og den som driver dette er jo Sam Altman, en av grunnlegerne som ble beskrevet nydelig nettopp som en autonom agent som har kommet ut av kontroll. Så her er det jo en glidning mellom kunstig intelligens, mellom de ikke-menneskelige værensformene som vi kaller for institusjoner, organisasjoner og selskaper og for så vidt også vårt forhold til andre mennesker. Så til det du sa, ida, så er det vel også sånn at det skjer vel også ganske ofte, at man for eksempel i skolen og i andre offentlige sammenhenger kan spørre til råds kommersielle selskaper og la dem ta beslutninger som de kanskje ikke gjør, i tro med dine egne beste interesser, selv om de virker veldig overbevisende i øyeblikket.
Speaker 4:Ja, absolutt. Og for å være litt precis på det, så er det ofte et problem at det offentlige som bestiller er ganske dårlig Man vet ikke helt hva man bestiller og den aktøren som tilbyr disse tjenestene er så mye mer kunsthavsrik. Så da får man jo virkelig den samme mekanismen som når det enkelte mennesket outsourcer beslutningen, litt som på offentlig organisasjonsnivå, at det er mye enklere å tenke at leverandøren kan dette her det er de som sitter på, det er de som er laget i teknologien og det er de som kan det. Nå skal det også sies at veldig mye av særlig historisk språkmodellene er jo, de er jo kommersiell, avisert på en måte som gjør at andre leverandører kan bruke modellene, og det gjør at du ikke lenger kan legge til grunn at leverandøren heller skjønner teknologien. Så ja, det er et annet aspekt av det som også for så vidt gjør meg bekymret.
Speaker 1:Jeg kommer bare til å minne publikum på om at hvis du sitter nå og har et brennende spørsmål eller bare er et stort spørsmålstegn eller har et spørsmål du tenker deg i Q&A-boksen, så kommer jeg som konferansier, moderator til å følge med på de spørsmålene underveis og hive dem inn. Så bare beskjed til publikum om å hive seg inn i spørreboksen når de føler for det kan jeg melde meg på.
Speaker 3:Ja, for jeg har en kommentar som både er noe som jeg frykter med AI, men som også på en måte retter seg mot det jeg mener er på en måte en mulig kanskje problem med ultralarisme, men også muligens Jans forståelse av ultralarismen. Altså, det som mange er bekymret for når det kommer til AI er nettopp at vi lager på en måte tomme, ikke sant? De er sånn ekstremt smarte systemer, men det er på en måte ingenting på innsiden. De er ikke som oss, ikke sant? De er ikke sånn til å kjenne på glede og alt det greiene der. De har ikke kvalia. Som jeg sa, kan vi si Så da, hvis vi på en måte tenker at vi bare fyller hele universet med slike maskiner, flinkere å skape mer og mer, men det er ikke noe på innsiden, så vil jo det på en måte ikke ha noe verdi.
Speaker 3:Da vil mange tenke, og utilitarister vil jo på en måte være den første til å si at det vil være en helt forferdelig verden. Altså, den verden vil jo ha på at ingen verdi, for for utilitarister ligger verdien i velferd, ikke sant? At noen har det bra. Og det eneste som jeg er bekymret for er faktisk at ikke bare at vi lager et univers som består bare av tomme maskiner, men også det motsatte, at vi lager maskiner. Vi vet jo ikke så mye om hvor bevissthet kommer fra, hvordan det oppstår, og vi vet jo ikke om vi vil lage maskiner som vi mener skal være våre slaver.
Speaker 3:Løsningen på dette misalignment-problemet som vi snakket om tidligere, om å prøve å sikre at AI-systemene har verdier som våre egne, det er jo en form for enslavement, det er et forsøk på å gjøre dem til våre slaver, og vi kan se for oss at det vi gjør er, at vi lager systemer som blir mer og mer kapable, men også i løpet av den prosessen her får en forhold for innsidet, de får kvalet, de får bevissthet, og så på en måte gjør vi disse bevisste individene om til på en måte våre slavier, og så skal de drive og styre. Det er på en måte en ordentlig dystopi, og bare for å knytte deg helt på slutten av den allerede ganske ramblende tankerekken. Men dette knytter seg altså til disse karakterene i boka, til Jan, da De blir nettopp mer og mer utilitaristiske trekker jeg vil nettopp selv kanskje ta liv av andre, hvis det er bra for samfunnet som helhet Men de blir også til synligheten. Egoister Og egoister, egoismen og utilitarismen er jo veldig ulike. På en måte hva skal jeg kalle det verdisett Utilitarismen nettopp er det at du skal prøve å handle slik og at du fremmer alles velferd så mye som mulig, mens egoistene bryr seg bare om seg selv.
Speaker 3:Så denne personen, dette er kanskje litt sånn spoiler, men Egoistene bryr seg bare om seg selv.
Speaker 3:Så denne personen, dette er kanskje litt sånn spoiler, men det er en karakter som ender med å drepe en annen person for å få tak i kryptovalutaen til denne personen for å starte et nytt liv.
Speaker 3:Og det vil jo en egoist, sier jeg jo kjempefint, men en ekte utilitarist vil jo sagt at det mest sannsynlig var den nyttemaksimerende handlingen. Så det er noe vi ser, og dette, tror jeg, gjelder generelt, at når vi ser på en måte disse folkene som blir utilitarister, så blir det mer og mer sånn åja, den slemme utilitarismen, som egentlig er jo en fantastisk vakkert syn, som er at alle til hver tid skal tenke hvordan deres handlinger fremmer mest mulig velferd for alle, inkludert dem selv. Og så blir det tatt inn i en sånn at det ligner litt på egoismen. Det synes jeg, ofte blir slått i hardkorn med egoismen, og den siste tingen er at det ender med at, hvis ditt leiterskikk også ender med at du ikke har kvaler, så er det nettopp en utrolig kjip verden for utenarister. Så jeg synes utenarister får det sånn dårlig rap noen ganger ved å bli sauset sammen med disse andre tingene.
Speaker 2:Ja, nei, men jeg er jo helt enig. Og da har vi ikke engang begynt å snakke om hvordan det føles å være.
Speaker 2:en sånn avstanden mellom intensjoner og utkomme kan være ganske grusom å se på noen ganger.
Speaker 2:Det jeg liker med litteraturen til forskjell fra de sånn ordentlige filosofiske tankeeksperimentene er at man trenger jo ikke å være konsekvent, man kan bare heller peke på det som noen av oss kanskje oppfatter som noen iboende problemer med det å skulle implementere utilitarisme, nemlig at vi alle, i hvert fall inntil videre, er individuelle aktører med våre spesifikke kvalier og spesifikke posisjoner, og det er noe av det som gjør det så vanskelig. Så jeg mente jo litt det jeg sa med referansen til Peter Singers tankeeksperiment, at det er jo en liten gjennomgangsting i mye av det han skriver, og han har skrevet mye forferdelige gode ting. men det er jo det at han skriver fra sin høyst individuelle posisjon og også når han har blitt utfordret på noen av sine mest problematiske posisjoner for eksempel at foreldre skal ha lov til å ta liv av sine nyfødte funksjonshemmede barn Så når han har backtracket på de posisjonene, så har det gjerne vært mer henvisning til ting i hans eget liv for eksempel sitt forhold til sin mor, sånn at det er en.
Speaker 2:det er på en måte sånn tankeeksperimentene møter verden, og i mitt tilfelle, der filosofien møter litteraturen, synes jeg, at vi får noen av de mer sånn mer brennbare og mer interessante diskusjonene rundt dette.
Speaker 2:Det er jo litt sånn. her er vi jo på en måte alle fanget i våre, altså for det første i våre egne hoder, men også i våre disiplinære virkeligheter. Og for meg så er det jo påfallende, hvordan på en måte både litteraturen og filosofien og mange andre disipliner, felt, hva vi skal kalle det, nesten alle disse feltene har det til felles, at de kan alltid vinne en diskusjon på hjemmebane, men det er litt verre, når det skal skje på premissene som gjelder andre steder. Det er jo noe av det som gjør det interessant å drøfte disse tingene på tvers.
Speaker 1:Ok, jeg kommer til å. Det var et spørsmål forrige gang som jeg kommer til å komme hit på, så det er sagt høyt, for jeg tror det er min jobb å stille de dumme spørsmålene. Men det var ikke et dumt spørsmål heller, men du var jo litt inn på det. Og så, Aksel, du snakket om det, hvis vi i prinsippet kunne laget en digital bevissthet, og de da ville vært sla, helt sikker på at kunstig intelligens er kunstig, hvordan vet vi forskjellen på kunstig og ekte intelligens? Hva er forskjellen, og liksom? Så jeg kommer bare til å sørge for at det spørsmålet er stilt, for jeg vet at det alltid er noen som lurer på det, og så er det litt vanskelig å spørre om det.
Speaker 3:Det er ikke jeg som tenker om det. Hvilket system er det intelligensen opererer innenfor? det er ikke noe mer kunstig med den kunstig intelligensen, anten at den ikke foregår i biologisk materie, så at den kommer i silikon eller hva det skal være. Det er det som er den kunstige elementet av det. Da noen vil si, at det som er kunstig med kunstig intelligens er at det er vi som på en måte lager den. Det kunne du jo for så vidt sagt om mennesker også. Så på en måte blir vi jo laget vi også, og evolusjonen har definitivt laget vår intelligens, og det faktum at vi er et produkt av en historie, slik en kunstig intelligens, er et produkt av en historie, selv om den var intensjonell, for da vil man jo si at Gud, gud prøvde å skape menneske til og med for å reflektere ham selv. Igjen, det gjør ikke noe utover, det gjør ikke oss til noe mer kunstig, det reduserer for så vidt ikke vår intelligens noe særlig. Så det er jo alldeles sikkert ikke jeg forstår det bare snakke om hva er biologisk materiale, hva er pålsesstein? Og det betyr jo, at hvis vi da tenker, hvis vi kommer til spørsmålet om nettopp, er det sannsynlig at et kåesystem noen ganger vil være bevisst? så vil noen si nei, selvfølgelig går ikke det, fordi bevissthet må jo selvfølgelig komme fra biologisk materiale. Men hør på den påstanden, hvorfor bevissthet nødvendigvis må komme fra biologisk materiale.
Speaker 3:Du kan kanskje si, at bevissthet på et eller annet vis i evolutionsprosessen må oppstått. Hvis ikke du tror, at bevissthet var built in i universet fra starten, som noen tror på Det kalles ofte pansykisme Du tror på, at alle atomer eller de minste bestandene i universet har en form for proto-bevissthet og at det er derfor vi kan være bevisste. Men hvis ikke du tror det, så tror du gjerne at bevissthet oppstår på et eller annet sted i evolusjonsprosessen. Men igjen, det betyr bare, at du kan lage bevisst materiale fra ikke-bevisst materiale på en eller annen fysikert måte. Og det samme kan jo gjelde vet i dag. Og her kan man jo også, hvis man bøker i filosofien gå til og si, at flertall har rett. Men et flertall av forskere på disse spørsmålene her sier, at det ikke er utelukket at kunstig intelligenssystem i kamerabus.
Speaker 1:Når du ser hold på å si nå har jeg lyst til å høre Idas reaksjon på det, fordi jeg skal ikkeldig tett på. Hvordan pølser blir stappet, er jo alltid litt sånn. Det var enda dummere på baksiden, disse synsene. Jeg er jo liksom.
Speaker 4:Jeg er spent på hvordan ser nei, altså, det er hver gang vi snakker. Altså det er veldig gøy å være med i denne samtalen her, fordi at jeg det blir liksom veldig, veldig konkret og personelt med personvern og AI, og når vi snakker om dette her, så er det sånn ja, nei, hva er AI? Det er jo disse neurale nettverkene, disse modellene som vi har lagd, og vi er ikke der at KI er bevisst, åpenbart ikke nå, om vi kan komme dit. Hver gang vi snakker om dette, så blir det litt sånn.
Speaker 4:Jeg vet at når vi skal bruke KI i verdenforstaten, så kommer det til å være kommuner som bruker KI Og de folkene som gjør denne jobben allerede nå. De er, for eksempel, en person som har en 10%-stilling i en bitterliten kommune som driver med alt på personvern og som konfigurerer det skolesystemet de bruker og bla, bla bla. Så jeg bare sitter her og bare sånn åh boy, hvordan skal vi klare å sørge for at vi bruker dette verktøyet noe som fortsatt er et verktøy og ikke er bevissthet på en måte som ganger oss? I don't know, i don't know you guys, i don't know.
Speaker 1:Nei, alternativt titel for romanen kunne jo vært noe sånt som dystopien kom med digipost eller noe i den gaten altså, det er en masse kulte spørsmål, men hovedtingen her er jo liksom, på en måte, det er et spørsmål om restriksjon. Er det mulig å begrense big tech, eller burde staten eie KI? liksom restriksjonen politisk var det en ting.
Speaker 2:Det er jo fortsatt et veldig godt spørsmål, for det er jo ikke som om statlige aktører opp igjennom historien alltid har handlet i befolkningens beste heller. Men det er jo kanskje det kan gå videre til Aksel først, fordi du har vel en del meninger om stat og styring.
Speaker 3:Ja, altså, jeg synes det er et spennende spørsmål og jeg tror det om det forbeholdet er viktig, men også om det forbeholdet er sagt allerede, så kan jeg hoppe over det. Det som er litt spennende, tenker jeg, når det kommer til den skaleringshypotesen som jeg har sagt om tidligere, at det ser ut til å være at veldig mye av KI-utviklingen driver seg av mer data, mer datakraft og større modeller. Så tar det litt vekk, denne fortrinnet til de aller smarteste folkene i Silicon Valley. For det som har vært storyen med mye teknologiutvikling har vært, at du trenger noen veldig få mennesker som har ekstremt høy IQ, som kan sitte og drive på for seg selv i kreative virksomheter borte i Kalifornien. Siden du kan ikke tvinge de folkene til å gjøre det du vil det går jo ikke Du må gi de på en måte spillrom til å gjøre hva de vil og legge insentivene til rette og håpe at de lager noe bra, ikke sant?
Speaker 3:Og da på en måte mister jo staten litt kontroll, kan du si, for da blir det noen private s, og de må selvfølgelig få lov til å beholde alle pengene. For hvis ikke de får beholde alle pengene, så vil jo ikke de gidde å jobbe. Så det er på. Eneste virkemiddel vi har, er å prøve å belønne dem med store gullrøtter. Men hvis det er slik at mye av dette her er data, datakraft og parametre, så er jo dette en statlig oppgave.
Speaker 3:Du få på en måte departementet for KI til å drive med. Så jeg ser, hvis det er ikke sikkert at den skaleringshypotesen vil gjelde fremover ja, det har fungert hittil. Men hvis vi tror at det er sånn her KI kommer til å bli utviklet videre, så slår det meg som at dette kan være en sånn statenes gjengkomst og at vi får, fordi dette blir så dyrt. Prisen på å drive dette her blir eksponensielt dyrere hele tiden. Og dette har jo vært sånn.
Speaker 3:Sam Oldman var ute for ikke så veldig lenge siden og sa jeg trenger liksom halve verdens BNP for å drive og lage nye modeller. Så er det spørsmålet hvor lenge gidder private investerer å være med på det eventyret der? kanskje er det bare stater som har råd til å drive med dette her. Og da får vi plutselig nettopp akkurat dette her, uten at vi egentlig har bedt om det. Så får vi kanskje noen store stater som tar over KU-utviklingen og greier det like bra. Og så er det spørsmålet om det er den fremtiden vi ønsker oss men i usannsynlig scenario, slik KJ har blitt utviklet sitt til, tenker jeg.
Speaker 4:Og så, fordi Ida fortsett Så spørsmålet om hvem skal eie KJ, dette har vi jo. Jeg husker ikke, hvilken undersøkelse det er, men det er en ny undersøkelse jeg har sett i Norge på hvem skal liksom eie KJ som generelt, eller hvem skal utvikle den kåring som vis alle skal drive og bruke? Og da er det liksom det første. Man svarer ingen. Ingen skal eie den. Men nummer to er staten i Norge Med ganske mange prosent, jeg tror det er rundt tredje, noe sånt.
Speaker 4:Og så kommer de store tech-firmaene Microsoft, google, apple på ish-delt tredjeplass. Og det er interessant. Jeg kommer fra personen. Personen handler om menneskerettigheter, du hintenter til det, men det er jo ikke sånn at stater nødvendigvis er så veldig bra på å utvikle den type systemer eller gjør det på måter som respekterer menneskerettighetene eller minoriteter. Så det er en ting, og en annen ting er også det at og det er kanskje et argument for at staten skal gjøre det igjen og det er at, for å kunne bruke KI på den måten som vi ser for oss, at vi skal bruke KI for eksempel som beslutningsstøtte eller til hjelp for å redde verpehelsstaten, så må de modellene være åpne, de må være forklarbare, for at, hvis du skal bruke dem for eksempel for valgningen, til beslutningsstøtte eller til og med også til automatiserte behandlinger, så må du kunne forklare, hvorfor de har kommet til det svaret de har kommet til, og da er du nødt til å bygge dem på åpne modeller, og det fordrer, at ikke bare Big Tech lager dem.
Speaker 1:Så egentlig, jeg føler at nå har jeg bodd på internett veldig, veldig lenge, men jeg føler at vi ender tilbake til 92-93, og vi sier det må være en åpen standard. Åpne standarder er politisk viktig. Men det er jo.
Speaker 3:Yes, bare hopp inn, aksel, keep talking for det er jo nettopp det som har vært. Den dominerende ideen har jo vært nettopp det, at vi trenger åpne standarder, åpne kildekode, åpne skudd. Men det er det jo også en del som har blitt bekymret for. Hvis det er slik at vi lager både systemer som har blitt og blitt bekymret for, hvis det er slik at vi lager både systemer som veldig lett med noen få tweaks kan gå fra å være kjempebra brukerstøtte til en kommunalt ansatt i velferdsstaten Norge til å være sånn, hvordan kan jeg lage verdens farligste sprengstoff eller virus som jeg kan slippe ut for å lage mest mulig skade? så hvis det er strengstoff eller virus som jeg kan slippe ut for å lage mest mulig skade, så hvis det er noe spesielt med kunstintelligens som er det at den øker kapasiteten til den som bruker den og det er lett å få vridd de systemene rundt, så tenker du at kanskje de systemene ikke bør være tilgjengelige på internett til hvem som helst å tvike dem til det formålet de selv ønsker. Så da får du et krav om å gjøre dem lukket for å sikre at det er noen som har kontroll, og det er ikke sikkert at det bør være.
Speaker 3:Altså, hvis du tror på det argumentet, så virker det ikke som for meg at du sier sånn ja, men da gir vi, eller hvem det nå skal være som skal lage de nye modellene. Det vi da kanskje bør gjøre, er å ha en type enten sånn her i, sånn CERN for AI, hvor det er der du lager de store modellene, hvor det er masse tredjeparter som er inne og sjekker hvor safe eller hvor trygge er disse systemene. Kan de brukes til slike ting, kan de ikke brukes til andre ting?
Speaker 1:så du må ha en sånn type kontroll da, og så skal filosofene være på toppen, og så under skal de andre. Og så er vi. Platon har laget en bok om det her tror jeg.
Speaker 3:Det er klart, det er akkurat det vi trenger. Nei, altså, det er en veldig fin visjon.
Speaker 2:Altså, det er sånn som mange av visjonene til Platon finner på toppen, litt mer problematiske på bunnen.
Speaker 2:Men jeg har lyst til å vri litt via det. Tilbake til utopiene og fremtidsvisjonene. Vi fikk ned et spørsmål her på dette med informasjonsfattighet i tankeeksperimenter. Det kan jo også være sånn. Det er jo noe som jeg tipper at filosofien også anerkjenner, at det er ikke. Du kan ikke på en måte, ja, du kan tydeliggjøre noen valg, du kan tydeliggjøre noen skiller, du kan tydeliggjøre noen begreper ved hjelp av tankeeksperimenter. Men tankeeksperimenter er ikke verden, og og det betyr også at de ikke nødvendigvis gir gode mål og styrheter. Nå er vel vi også i en sånn. Nå tenker jeg høyt her. Men vi befinner oss jo også i en historisk fase hvor det er en viss knapphet på utopier og på virkelig gode mål å styre etter. Det er ikke det, at vi mangler dystopier, og det er ikke det, at vi mangler risikoforståelse. Det har vi i ekstrem grad, og det er også i løpet av den timen her. Så har vi ikke engang snakket om klimaendringer og en del av de andre tingene som også på kort, mellomlang og lang sikt burde oppta oss en del. Men i søkene etter utopier, så kommer jeg på Marsbyen til Elon Musk hvordan den skal se ut. Jeg tror ikke jeg har lyst til å bo der, men det er ganske langt mellom de virkelig optimistiske fremtidsbildene. Så hvor er vi der?
Speaker 2:Altså, seieren for AI, ja, kanskje, men andre ting som det er verdt å styre etter? for akkurat nå virker det som om den versjonen av kunstig intelligens som vi har nå, som er den gjennomprivatiserteerte, ikke veldig lønnsomme, men i ferd med å bli veldig, veldig sterkt profitorientert varianten, har lagt en del premisser for både veivalg og diskusjon, og det knytter jo også litt tilbake til det som jeg har prøvd å skrive meg litt rundt og gjennom og inn i romanen, nemlig i hvor stor grad den tankeverdenen vi lever i, den diskursive, språklige verden vi lever i, lukker en god del diskusjoner og styrer oss i bestemte retninger.
Speaker 3:Kan jeg si jeg kan starte på det. I hvert fall, Jeg liker veldig godt fokus på utopier og jeg tror jo den utopien som de fleste ser for seg sikkert jeg ser det er jo den ideen om, på en måte, disse enormt kapable AI-assistentene som er servile for oss men som basically fra vi er veldig, veldig små hjelper oss til å bli den beste versjonen av oss selv. Da tenker jeg ikke på en veldig begrenset variant som skal være snill mot alle, men derimot nettopp hvis man ser for seg et menneske som kan vokse til å bli en fantastisk blomst og utrolig kreativ og alle mulige egenskaper i mennesket som ikke alltid kommer frem hos de fleste av oss fordi vi er redde, vi blir traumatisert, vi lukker oss inne. Men noen som hjelper oss, stimulerer oss, er en venn som er på en måte terapeuten vår og som sørger for at hver og en av oss kommer ut av den og blir den vakreste blomsten vi kan bli da og det er ikke noe vanskelig å da se for seg. Det er utrolig dette her, hvis det er slik at du på fingertuppene bare kan se alle ideene dine. Du har noen ideer, men det er hardt arbeid å få dem til å bli så god som de vil bli eller som de kan bli, og så kan du se dem visualisert. For eksempel, du kan lage helt enorme studer som kan komme hele verden til gode ved å hjelpe av noen tasseuttrykk, men det er kanskje noen smudre måter.
Speaker 3:Så det på en måte er jo en idé som jeg på en måte er sånn. Den gir mening for meg. Vi er fortsatt i verden. A1 fungerer som støtte. Hver og en av oss er på en måte liksom fortsatt i sentrum av begivenheten. Så har du på en måte no to andre utopier for disse folkene, som vi har allerede snakket om. Nick Bostrom, som er mannen bak Paperclips og boka Superintelligence han har jo akkurat kommet ut med en ny bok som heter Deep Utopia Så nettopp prøver å argumentere for at en verden i virtual reality for så vidt så her tror jeg, en del vil hoppe av.
Speaker 3:Dette er det samme som David Chalmers, en av tech-filosofene som har kommet opp med ideen om filosofisk zombie, som vi også har snakket om i dag.
Speaker 3:Begge de to er på det tilgjengelige av å si, at et liv i virtual reality, altså basically i Matrix, kan bli, er et like bra liv, kan være et like bra liv, om ikke et mye bedre liv, enn det livet de fleste av oss lever i denne virkelige verden som vi lever i nå, og der er det på en måte mange argumenter man kan føre for det.
Speaker 3:Men det er liksom, man kan jo ikke, for det er ofte man tenker ofte at det vil være på en måte et enkelt liv og på en måte et kjedelig liv, i sånn billig dope måte at det er heronistens liv, heronisten på sitt beste, eller hedonismens liv. Men du kan jo se for deg at det livet dette er det Bostrom prøver å argumentere for, at det livet kan være vakrere enn noe du kan oppleve. Nå, dine evner til å oppleve det skjønne kan på en måte enhances fullstendig. Hvis du ser for deg at du har lyst til å klatre fjell og gjøre avdeling i prestasjonene, kan det være heftigere enn det noen har blitt før. Så dette er jo andre typer utopier, som selvfølgelig andre kanskje vil tenke er dystopier. Men de er fulle av kvaler og de trenger ikke innebære at du tar liv av noen og putter dem i kapsler heller.
Speaker 1:Dette er veldig morsomt. Har du noen utopier?
Speaker 4:Ja, jeg har det. En det er veldig vanskelig for meg å ha utopier sånn at jeg virkelig dug deep, og de utopiene mine, de er veldig pragmatisk og kjedelige. Fordi det jeg ønsker at vi skal bruke AI til, det er de kjedelige skriveoppgavene som vi alle har gjort, sånn type årsrapporter som på en måte må skrives, men som er utrolig kjedelige, som en menneske nesten ikke trenger å gjøre. Og i forlengelsen av det, så kan man jo se for seg at da for nå kan jo AI gjøre den type kjedelige års rapportskriving som veldig mange som har jobbet i byråtiden en gang har drevet med På. Det jeg gjør i dag er jo i stor grad å lage rutiner og regler for hvordan man skal etterleve personverden, også typiske ting som man kan generere. Men i forlengelse av det, så bør vi egentlig begynne å stille oss spørsmål Trenger vi det helt tatt å lage de dokumentene hvis ingen leser de og vi bare må ha de?
Speaker 4:Så kan vi ikke gå over fra jeg har skrevet en personvernetklæring som jeg er ganske stolt av til nyhetsprøvemet. Det er en levende tekst, en utrolig levende tekst. Så svaret mitt er ikke vi bør få AI til å skrive alle de kjedelige greiene vi på en måte bare må skrive. Og så bør vi innse at kanskje vi ikke trenger til å skrive det og kanskje vi kan gå videre til en type levende tekst i stedet for. Det er utopien min, at AI får oss til å skjønne at det er visse ting vi gjør som vi ikke trenger å drive med lenger, og vi kan heller gjøre andre ting som gir mer mening.
Speaker 2:Ja, det er et av de premissene som jo ofte ikke blir diskutert rundt A&O er jo, i hvor stor grad det er lansert som et verktøy som skal øke produktivitet. Jeg hadde også noen sånne jeg. Det er lansert som et verktøy som skal øke produktivitet. Jeg hadde også noen sånne. Jeg hadde flere tanker også om det. Du sa, aksel, om den kvaldige baserte utopien, fordi det er også fra et bestemt perspektiv. Så det er jo det som blir beskrevet der. Nå har jeg ikke lest den nyeste boken til Nick Bostrom, men jeg tror det er på gjengjøvelsen av den. Det er jo også et gjennominstitusjonalisert liv, sånn at det er jo en analys der, hvor man kanskje også bør drøfte en del maktforhold rundt hvem som lager denne opplevelsesmaskinen, hvis man vil låne en maskin for et annet eksperiment. Men ja, hva tror du? vi da Har vi gått runden på utopier og dystopier.
Speaker 1:Jeg tenker jo liksom bare, at nå som tidspoliti og hun som har fulgt med, har jeg også noen spørsmål som ble med over fra forrige runde.
Speaker 1:Men dere har på en måte allerede vært inne i dette her med. Liksom, jo, jeg har noen konkrete ting, fordi jeg sitter, jo, jeg synes det er så morsomt å sitte og høre dere snakke på det, fordi jeg er jo liksom det fine med å være liksom halvt ekte tekniker til en viss grad er, at jeg har vært med å lage noen AI-er, inkludert en ekte maskinlæringsting. Som jeg har vært med å lage er jo kvitteringsgjenkjenneren til Folio, som da kan kjenne igjen en kvittering blant utrolig mange forskjellige lapper papir, og etter hvert har blitt viska vekk, for de fleste kvitteringer er trykket på veldig dårlig papir hvor blekket forsvinner veldig fort. Så er den veldig forlinkt til å kjenne igjen at dette er en kivikvittering. Jeg tror det der skulle være et sekstal og ikke et åtetal, for eksempel. Så det er jo en veldig dum men veldig lur maskin, og som tekniker er det en del av det som jeg har sett.
Speaker 1:Jeg tror ikke noe på bevisstheten det hele tatt, fordi disse tingene er så utrolig dumme og det tar så ekstremt lang tid og det krever så ekstremt mange mennesker som sitter og sjekker at folk har skrevet punkt, du må ikke komme. Det er storparten av teknikernes vaktmesterliv. Men den tingen som vi ikke har snakket om, som jeg ser komme veldig, veldig hardt, er jo disse maskinerne som allerede finnes. Den eneste grunnen til at de ikke har spist 20 prosent av norske arbeidstakeres vanlige jobber er at vi har en velferdsstat som beskytter stillinger veldig, veldig stert, som betyr at liksom, men i prinsippet og for de fleste ikke skjønner hvordan teknologien kan brukes enda. Men dette kommer jo til å komme med en veldig, veldig, veldig stor fare for arbeidsløshet. Så hvis vi skulle si noe om jeg skal ikke si, altså for å gå tilbake til Marx, da hvor meningen med livet ifølge Marx handler om å ikke være fremmedgjort fra arbeidet, har du noen tanker om det i forhold til denne vidunderlige maskinen?
Speaker 3:Jeg kan alltid starte, men Ida stopper nå så jeg kan starte så mange ganger.
Speaker 3:Nei, sett i gang. Ja, ok. Jeg synes dette her er en av de skumlere tingene. Jeg synes det er helt absurd når du ser perspektivmeldingen som skal se frem til 2060, og de skal begynne å tenke på ok, hva er det, hvordan blir det med dette kunstig intelligens greiene, da, så forventer de altså mot. Altså, nå har vi hatt 1% produktivitetsvekst de siste 20 årene, så det er det de forventer frem i tid. Så tenker de nei, men la oss være litt spreke og tenke litt på kunstig intelligens, hvilke konsekvenser det skal ha. Sier de Ja, ok, da.
Speaker 3:Et litt sånn ambisjøs scenario er at du har tatt 10 prosents produktivitets eller effektiviseringsgevinst i helsesektoren i personlig meldingen, som er vårt sprekeste fremskrivningsverktøy. Så det er jo ganske absurd. Jeg tror, nettopp som deg, at dette her går utrolig tregt, for selv når systemene er gode nok til å ha satt folk sine i jobber, så skjer ikke det. Jeg tror ikke. Det bare er at vi har gode eller for meg sånn gode, det er av ingen av syne. Men at vi har gode eller for meg sånn gode, det har jeg ingen aning om. Men at vi har strenge beskyttelser av folk, sin arbeidsplass og så videre. Men det er det, at folk ser ikke hva teknologien kan brukes til enda.
Speaker 3:Så de tingene kommer veldig, veldig kjapt når de først kommer, men det tar lang tid før det skjer. Og en ting er jo økonomene har jo et naivt syn på dette. De sier altså, når en maskin ersatter en arbeidstaker, så betyr det, at det er bedre å ersatte den arbeidstakeren, det er mer profitabelt, det betyr, at overskudd skapes og det overskuddet kan på en måte brukes. Det er stort nok til å kompensere de som tapes. Så hvis vi har et fornuftig system, så vil denne typen av automatiseringen ende over tid med at flere får gode og bedre betalte arbeidsoppgaver. Men spørsmålet er da en er det sånn at det vil bli flere nye jobber? Er det sikkert at de jobbene lages, eller er dette automatisering uten at det skapes mange nye jobber?
Speaker 3:Så det er jo en utfordring. En annen utfordring er at de jobbene som lages, annet enn Ida sitt ønske utopi om at det er A1 som står for alt det kjedelige. Så blir det heller det skikkelig, at A1 gjør alt det kreative og gøy. Og det er jo et typen meme nå, sånn du håper at en robot skulle gå og fikse klesvasken, for det her gjør alltid kjip arbeidet, men nå ser du at Kåin lager kule filmer og lager kunst og sånn. Så det er jo et alternativ, at vi får jobber.
Speaker 3:Nok. Det er jo noen som alltid vil betale for at noen skal bære dem rundt på gullstolen, hvis det er det jeg snakker om. Men det er ikke kremjobber da. Så det er nok jobber, men det er ikke høykvalitetsjobber. Og jeg er bekymret for det siste, da det er to typer scenarier.
Speaker 3:Så er det et siste scenario som basically er, at ok, k-utviklingen går så langt, at de systemene tross alt blir så kapable kanskje blir de ikke bevisst til, men de blir likevel kapable så de kan løse nesten alle oppgaver vi mennesker kan løse. Og da er det spørsmålet hvordan ser det samfunnet ut? for jeg tror ofte vi tenker, at det samfunnet kommer til å se likt ut som vårt eget. Og da kan jo folket som plutselig da har alle en interesse av borgerløn, så tar man penger fra de rike og gir til de fattige, som vi er, og så blir vi rike vi også, og så er dette her egentlig en helt krem verden. Men jeg tror, i den situasjonen, hvor hver og en av oss mister vår rolle som arbeidssaker og kanskje mister vår rolle som soldat, så har vi plutselig ikke noe og vi har ikke noe interesse lenger av å sørge for vår velferd, og du vil ikke se de overføringene som er nødvendige. Så dette er kanskje et annet Marxistisk poeng AI kan ikke streike.
Speaker 3:Ja, ikke sant. Ai kan ikke streike og vi kan ikke streike vi heller, fordi vi har ikke noen streike med, fordi det er ingen som trenger vår arbeidskraft lenger. Og da er vi i en situasjon hvor dette ser plutselig veldig dystopisk ut. Ja, masse verdier skapes, men de føles ikke tilbake til vanlige folk. Det er ikke en verden vi er spesielt klar over eller ønsker oss.
Speaker 1:Vil du bare fortsette å stå oppi den i dag?
Speaker 4:Ja, så når vi snakker om dette her, så tenker jeg på de stedene hvor og det er ikke nødvendigvis i Norge, men jeg bor jo til vanlig USA og det er jo flere steder ikke steder, men arbeidsplasser i USA som har blitt veldig påviket av AI. Jeg tenker på Amazon-sjåførene eller budbringerbransjen, hvor den jobben er blitt veldig, veldig tajmet, automatisert og den delen av jobben menneskene gjør er også veldig tajmet Og den delen av jobben menneskene gjør er også veldig timet og da har krav hvor mennesket må på en måte møte maskinen sin den type krav som maskinen veldig enkelt kan gjøre. Panøst må Amazon-sjåfører tisse på brusflasker i bilen for å rekke tidspunktene de skal lirere ting på. Det er en ting, og så er det en veldig overvåkning av mennesket mens man gjør den oppgaven. Hvis du kjøper en pakke, for eksempel, så kan du se hvor sjåføren er, i tillegg til den utrolig overvåkning og rapportering av hva sjåførene gjør til et hvert tidspunkt.
Speaker 4:Så det jeg er bekymret for når vi snakker om automatisering, det er at vi en, at jobbene forsvinner og at vi ikke deler på den verdiskapningen ved, for eksempel, borgerlønn, men også det, at de jobbene som er igjen blir så dysfunksjonelle at det er opp til mennesket å leve opp til samme type krav som det maskinen skal levere på, og åpenbart klarer det veldig bra, fordi maskinen trenger ikke å streike trenger ikke tidsspøse, trenger ikke i det hele tatt.
Speaker 2:Så det er jo. I går snakket vi litt om de historiske momentene, for eksempel den mekaniske tyrkeren, den sjaksspillende, såkalt robotten fra 1700-tallet, som mange som jobber med kunstig intelligens synes det er interessant å snakke litt om. I realiteten, så var det jo egentlig bare en relativt enkel mekanisk innretning. Da er det lov. Et menneske klimt inn på innsiden med relativt dårlig luft og et lite tilarinlys for å se hvordan trekken skulle foretas, som gjorde at den maskinen virket. Det interessante er jo at Amazon i vel i 2005 lånte navnet på den mekaniske tyrkeren for å sette inn en sånn outsourced småjobber-tjeneste. Så de så jo denne fortellingen og tenkte sånn ja, det høres ut som en kjempegod idé. Sånn skal arbeidsplassen se ut, inn i boksen med deg. Men det vi forstått nå er det jo inne på noe av kjernen av det som jeg har prøvd å tangere litt i romanen, nemlig nettopp det, at selv om en litt uavhengig av hvilke intensjoner disse systemene er blitt implementert med, så er jo noe av utkommet i praksis, gitt at det filtreres gjennom den formen for kapitalisme som vi lever under, blir at man gjør veldig mange menneskeliv i praksis overflødige. Ja, du har ikke lenger mening gjennom arbeid, og arbeid er jo også, som Aksel var inne, på veien til demokratisk deltakelse, fordi det ligger maktmidler i det og for mange det eneste maktmidlet som finnes. Og tilfeldighetene vil jo ha det til at jeg i går var oppe på et seminar på sosiologi her på Berkeley.
Speaker 2:Der på sensussen var vel mer eller mindre at det er ikke nødvendigvis fascisme man er på vei mot i USA, men det er definitivt et sammenbrudd i den formen for klassekompromiss som har opprettholdt en form for demokratisk deltakelse. Og kanskje vil det som kommer ut av det ligne mer på en sånn form for neobonapartisme, var ordet som ble brukt, altså ikke Napoleon den første, men hans enda hipere nevø, napoleon den tredje, som foretok statsgruppe i Frankrike på 1800-tallet og ikke egentlig trengte masse mobilisering eller et masseparti. Du kunne ha et autoritært styre med en sånn aristokratisk tyngde på toppen, og det var mer enn nok. Og det driver man kanskje å berede grunnen for nå ved at man ikke da trenger massene på samme måte som man gjorde før, annet enn som Amazon-sjåfører til å utføre de jobbene, som roboter rent fysisk ikke kan utføre, i hvert fall enda.
Speaker 1:Ja, fordi jeg skal ikke si, at der er vi på en måte i. Jeg skal ikke si, det er det som er horroren, at hele premisse for Marx-revolusjonen er, at noen jobber i fabrikk og den fabrikken må virke.
Speaker 4:Altså, det er dette som er horroren for meg når jeg leser det kinesiske rommet. Det er at vi, ved hjelp av AI, lager et miljø som er så hostile og så dysfunksjonelt for mennesker og vi må tilpasse oss det, for det kommer vi til å gjøre, det har vi allerede gjort, eller det gjør mennesker traumatisk i dysfunksjonelle miljøer. Ja, og det er det jeg er redd for, og det synes jeg også. Det må jeg bare si at jeg synes du beskriver det på en veldig god måte, som virkelig bare slår meg rett i ajansen min.
Speaker 3:Jeg kan da legge til en ting Jeg tror vi når en enighet Eller konsensus. Det som er farlig med mennesker Er, at vi er servile Eller late, og det merker man kanskje I seg selv I møte med En mekteteknologi Som kan hjelpe en på vei. Så er det lett at man tenker Jeg merker når språkmodellen, chatsypeteri, kommer en mekteteknologi da som kan hjelpe en på vei, så er det lett at man tenker jeg merket bare sånn, når språkmodellen og sånn chat-shippet de kommer. Så var det sånn. Jeg bare ah, tenk om han bare kan gjøre arbeid for meg. Og så bare tanken på at han kunne gjøre arbeid for meg gjorde, at jeg ikke orket å motivere meg til å gjøre den tingen. Så da, ten, herregud, hvordan skal det være for unger, hvis du har en tilgjengelig teknologi som kan gjøre alt, du kan gjøre bare mye bedre. Og så skal du jo leke gjennom skolegangen med å ikke ta bruk av den teknologien som bare kan hjelpe deg. Det er en utrolig fristelse.
Speaker 3:Nå tenkte jeg på en måte sånn det er jo også skolen i dag, så det er jo bare en lekk grin, hvor ja du kan snakke med pappa og prøve å få dem til å hjelpe deg. Men folk greier å entertaine eller få fake verden, som skolen, tross alt, er for folk. Men jeg tror dette gjelder ikke bare for barna, det gjelder for voksne. Jeg tenker, den virkelige dystopien vil jo være sånn, bare fordi spriket i forventning og realiteten blir størst, er sånn. Vi har et AI-tilgjengelig til å hjelpe oss med alt mulig. Vi kan bare få utløp for alle våre kreative evner, vi kan gjøre fantastiske ting. Men så er det på en måte ikke noe sånn insentiv press til å gjøre det av en fikse det selv, og så på en måte utvikler vi aldri eller vi utøver ikke engang de evner vi har.
Speaker 3:Så det er en sånn ekstremt trist scenario for meg, hvor det bare er våre evner og til og med vilje for vittere. De møter med et system som kan gjøre så mye for oss. Mye for oss da, og så er det jo noe å si. Da er vi allerede på det tidspunktet. Så er det bare å forese inn i opplevelsesmaskinen til Robert Nozick, da har på det våre evner, forvitter det såpass mye, at vi er utelukkende blitt konsumenter, og det er vi bra for. Da er det bare å kvalgene igjen. Men her tror jeg, jeg deler deres intusjon, hvis jeg har forstått deres intusjon rett, at det er litt sånn. Det er ikke dit bra Den fremtiden, der er ikke høysikkert, dit bra ut.
Speaker 1:Altså, vi er fem minutter fra det, som jeg tenker er naturlig køtt off, og det er ikke fordi jeg har egentlig tenkt at vi kan sitte og skrave til klokka ti på kvelden, men det jeg har sett er at folk blir trøtte halv ti. Det er min barnehagetante-intuisjon, etter å ha hatt disse arrangementene Sånn at jeg skulle. Det dumme med å ha digitalt arrangement er at vi ikke kan sitte og fortsette å skravle ut i natta, for det har jeg faktisk veldig lyst til, for dette var veldig, veldig morsomt. Men det er altså sånn at, for, la oss bare ta en bitteliten runde på hvor folk kan finne Aksel og Ida og henge mer med dem, for jeg tror det er flere som tenker sånn shit, jeg vil lese mer av det Aksel skriver, jeg vil følge mer med på hva Ida driver med av faktisk politisk pressarbeid for at ikke Meta og Google skal få lov til å bestemme absolutt alt her i landet. Så, aksel, hvor på internett kan folk finne deg og hvor kan de lese hva du har skrevet og hvor er du om dagen?
Speaker 3:Yes, så mitt primære virke er som fagsjef i langsikt, hvor vi ikke bare jobber med paperclip maximizing, prevention men også en del andre ting. Så der kan du lese det meste av det som er nytt om dagen. Og så kan man også gå på akselsterrino hvis man er mer interessert i mitt akademiske arbeid. Så der er det en rekke artikler om alt mulig rart som er tilgjengelig for de som er interessert.
Speaker 1:Veldig bra, Ida. hvor finner folk deg?
Speaker 4:Finner du på LinkedIn Ida Torsløv, og der vil du finne type nyhetsbrev blogg, hvor jeg skriver litt om dette her også. Men LinkedIn er liksom min primære, ja det primære stedet jeg er på internet.
Speaker 1:Jeg har lært at nå skal vi ikke si lenger, si influencers, du er en LinkedIn-profil. Det er klart at, rent medievitenskapelig, så er dere begge to i kategorien opinionsdannere og ikke mikrokjendiser, selv om mikrokjendis er et veldig antikt begrep, etter at influenser ble en stor ting.
Speaker 1:Mikrokjendis ja, men liksom i gamle dager så het det mikrokjendis, når man var influenser med det vitenskapelige. Så er det ikke helt ut av fagtermonologien enda, men oppenbent folk som mener ting om ting de kan, som andre hører på. Så jeg anbefaler å følge både Aksleida og lese det de skriver og henge med rundt. Og så håper jeg at alle som har vært med live eller hørt på et av opptakene går og kjøper det kinesiske rommet og ser om de blir skremt eller om de er enige med Aksle om at dette ikke er den verste dystopien som kunne ha skjedd. Kan det være vi må ha en oppfølgingsarrangement hvor vi diskuterer det.
Speaker 1:Det blir aldri så ille som mittnavno det kan vi alle ta høyde for tusen, tusen takk til alle som kom og tusen takk til alle som har stilt spørsmål og tusen takk til alle som har vært levende publikum på disse annerledes boklanseringene. Gi en applaus for dere selv og gi en applaus i chatten for gjengen. Så det er tusen, tusen, tusen takk for i kveld.