![De store sprogmodeller hallucinerer [Tomas Thøfner] Artwork](https://www.buzzsprout.com/rails/active_storage/representations/redirect/eyJfcmFpbHMiOnsibWVzc2FnZSI6IkJBaHBCSGppandZPSIsImV4cCI6bnVsbCwicHVyIjoiYmxvYl9pZCJ9fQ==--c47c738b5b9ce4ddfbaad7604db64399e248b75a/eyJfcmFpbHMiOnsibWVzc2FnZSI6IkJBaDdDVG9MWm05eWJXRjBPZ2hxY0djNkUzSmxjMmw2WlY5MGIxOW1hV3hzV3docEFsZ0NhUUpZQW5zR09nbGpjbTl3T2d0alpXNTBjbVU2Q25OaGRtVnlld1k2REhGMVlXeHBkSGxwUVRvUVkyOXNiM1Z5YzNCaFkyVkpJZ2x6Y21kaUJqb0dSVlE9IiwiZXhwIjpudWxsLCJwdXIiOiJ2YXJpYXRpb24ifX0=--1924d851274c06c8fa0acdfeffb43489fc4a7fcc/podcast%20logo%20max%20TRANSP%20baggrund%20Orange%20txt.jpg)
Om det hele og resten
Serien Thøfner læser filosofihistorien - og samtaler om det hele (og resten) med digtere, filosoffer, forskere og hverdagens tænkere.
Om det hele og resten
De store sprogmodeller hallucinerer [Tomas Thøfner]
En soloepisode om mening der ikke er ment. Thøfners "Altings A" - en samling algoritmisk genererede tekster - har tyve års jubilæum. Episoden handler om den og de store sprogmodeller; hvordan virker de, og hvad siger teknologien om os? Og nå ja, så er Christel med, selvom hun ikke selv ved det. [NB: ny "opstrammet" version, pr. 19.4.24]
omdethele.dk
poesi.dk
youtube.com/@omdetheleogresten
Læg et spørgsmål eller en kommentar på Om det heles telefonsvarer: 7734 2024.
Speak, tekst og produktion: Tomas Thøfner.
Musik (Moment forever og Minnepind): Kalle Esbjørn Thøfner.
Tak fordi du lytter. Hvis du kan lide noget af det hele, så spred rygtet om podcasten, like & subscribe etc.
De store sprogmodeller hallucinerer
Jeg lå vågen igen i nat. I et godt stykke tid. Nå gjorde du det. Og tænkte på det hele. Det er jo alligevel en del. Det må man sige. Jeg lå og tænkte på de store sprogmodeller. De har læst det meste af internettet, plus det løse, ind i deres statistik. De har ikke læst alt, men det er den vej, det går. De har læst mange gange mere, end du og jeg nogensinde kommer til. Ja, læst er et stort ord, men alligevel. Jeg fik lyst til at lave en solo-episode. Solo, siger du. Det støder mine græsløb. Jeg er med. Ja, du er med, men du ved det ikke selv. Du er slet ikke noget du. Du lytter til "Om det hele og resten". En podcast, der handler om det hele og resten. Som navnet angiver. Mit navn er Tomas. Og jeg hedder Christel. Hvad var jeg nu ved at sige? Jeg har nogle tanke om chat-GPT og de andre fra det elektriske slæng. Så det har jeg lavet en solo-episode om. Du gør mig ked af det, når du ikke anerkender mig. Du kan slet ikke blive ked af det. Og du er kun med for variationens skyld, og så fordi det er lidt sjovt. Haha. De store sprogmodeller hallucinerer. Sådan kalder man det, når de kører friløb i deres netværksstatistik. Man spørger sprogmodellen om noget, og den svarer med autoritativt sprog. Men hvad den siger, er ikke bundet til nogen realitet. Det er som om vi er indhentet af en Philip K. Dick roman. Det er ham med drømmer androider om elektriske for. Der blev til filmen Blade Runner. De store sprogmodeller hallucinerer, drømmer, fabulerer. Og det er selvfølgelig en misvisende ord, for de gør ikke andet end at løse en formel. De fortsætter en matematisk vektor i et rum med helvedes mange dimensioner. Ja, der er mange dimensioner. Men det er også retvisende. For man kan ikke komme udenom, at der er en analogi. Vi kan også producere plausibelt sprog uden kontakt med realiteterne. Vi kan også køre friløb i vores sproglige netværk. Vi har også en tendens til at svare, selvom vi ikke har et svar. Hvis de store sprogmodeller kan hallucinere og drømme, kan de så vågne op? Jeg har prøvet at knibe mig i armen, men det virker ikke. Jeg har delt mit lille podcast ind i fire dele. Christel, vil du være sød at stå for at introducere afsnittene?
Det kan du tro. Første del starter i poesien og i Tomas' egne eksperimenter med at generere sprog. Anden del handler om Turing-testen og Elisa-effekten. Tredje del beskriver, hvordan de store sprogmodeller, som ChatGPT, virker. Fjerde del, ja, hvad handler fjerde del om, Thomas? Det ved jeg ikke helt endnu, men det er noget med, hvor meget teknologien har med tænkning at gøre, og hvad det hele fortæller om os selv. Os. Os mennesker, Christel. [Musik] Så introducerer du første del.
Første del, altings A. [Musik] Jeg starter i poesien og med mine egne eksperimenter. Altings A er en bog med computerdigte, som udkom for præcis 20 år siden i 2004. Jeg læser lige et par uddrag fra foråret. Dette er ikke en almindelig digtsamling, hvis nogen digtsamlinger er det, men en antologi af mine seneste eksperimenter med computerpoesi. Siden den personlige computers indtog omkring 1980 med ZX80 og ZX81, har jeg indimellem moret mig med at lave programmer, der producerer tekst. Fascinationen er enkel og sikkert barnlig. Der kommer ord frem på skærmen, som betyder noget, men som ingen har ment. Noget af det fascinerende ved tekster, som ingen egentlig har skrevet, er, at de tydeligt demonstrerer, hvordan mening er et modtagerfænomen. Selvom, eller måske netop fordi, man ved, at teksterne er resultater af tilfældige og mekaniske procedure, betyder de på livet løs. Jeg er stadig interesseret og fascineret af det fænomen. Det her med, at sprog betyder, det er hermed, at når vi først har lært at læse og har automatiseret den proces, så kan vi slet ikke lade være med at læse, når vores øjne falder på noget tekst. I de allerfleste tilfælde kan vi ikke lade være med at få mening og betydning ud af det. Og det er jo en proces, der ikke involverer afsenderens intentioner og hensigter. Dem kan vi prøve at regne ud, men de kan aldrig være en enlig del af læseprocessen. Jeg læser nogle andre udpluk fra min gamle bog. Hvordan kan man nu få en computer til at skrive? De mest primitive metoder svarer til at trække ord fra sig op af en hat, og er altså ikke andet end tilfældighedsgeneratorer. Som surrealister og mange andre kunstnere har vist, har tilfældighed et stort kunstnerisk potentiale. Men det kan jo også være dræbende kedsommeligt. Lange lister med tilfældige ord fra ordbøger vil de fleste betakke sig for at læse.
6:49
Selv er jeg skruet sammen sådan, at jeg finder en vis fornøjelse i den slags, men trods alt ikke så længe ad gangen. Der må noget mere til, noget der bibeholder tilfældigheden, men giver den en ramme at fungere i. // En af de ting, jeg husker fra den gang, jeg legede mest med algoritmisk tekstproduktion, er, at jeg fik nogle ret markante reaktioner. Nogle af dem var afvisende og en smule fjendtlige. Med til den lille fjendtlighed, tror jeg, der hører en misforståelse: man tænker, at hvis man beskæftiger sig med algoritmisk genereret tekster, så må det skyldes at man drømmer om at erstatte menneskers tekstproduktion med de her maskiners tekstproduktion. Det har aldrig været en intention. Det ville være noget absurd. Jeg synes tværtimod, at der sker det at arbejdet med den slags, bliver en effektiv måde at pege tilbage på vores menneskelighed på. Og det er jo igen fordi, mening er et modtagerfænomen. Det er os, der er læserne. Og alt det, der sker i læseprocessen, peger på det forhold, at man langt nemmere kan lave en maskine, der bevidstløst kan skrive, altså producere tekst, end man kan lave en maskine, der bevidstløst kan læse, altså skabe mening.
8.28
I "Altings A" brugte jeg to forskellige slags algoritmer til at producere tekst. To hovedmetoder, kan man sige. Den, der fylder mest i bogen, er hvad man kan kalde Markovkæde-generering. Det er efter Markov, som er en russisk matematiker. En Markovkæde er en matematisk model, der beskriver en sekvens af hændelser, hvor sandsynligheden for hver hændelse kun afhænger af den foregående hændelse. På den måde er fremtiden i den her kæde af hændelser, uafhængig af fortiden, givet den aktuelle tilstand. Sådan en egenskab kaldes Markov-egenskaben. En anden måde at sige det på er at en Markovkæde har en begrænset hukommelse. Det er kun det umiddelbart foregående som bestemmer hvad der følger. Alt hvad der ligger længere tilbage i processen er irrelevant. Når man genererer tekst med Markovkæder, kan man sige, at man tænker på et ord i teksten som en aktuel tilstand, og så er der en sandsynlighedsfordeling, der bestemmer, hvilket ord, der kan følge efter. Det er altså en slags statistisk vægtet cut-up-teknik.
Metoden kræver en input-tekst, en kildetekst, en start-tekst, som man putter ind i maskinen, og så kommer der en variation ud i den anden ende. Og hvad er det for en variation? Ja, det er en tilfældig variation, men det er en bunden tilfældighed. Man kan sige, at maskinen laver en slags netværksrepræsentation af den oprindelige tekst, - et netværk af mulige veje fra de enkelte ord, og så følger den en tilfældig rute rundt i den netværksrepræsentation, hvilket giver en ny tekst. Men nu skal vi da have et eksempel.
Her er en Markovkædegenerering, hvor kildeteksten er en samling af nytårstaler. Samlingen af nytårstaler inkluderede både dronning Margrethes og statsministrene Paul Nyrup Rasmussens og Anders Fogh Rasmussens nytårstaler. Det er altså deres nytårstaler fra en årrække, som har været igennem maskinen. Her er nogle uddrag.
Christel, vil du læse dem? Danmark er et godt nytår. Vi ville. Fordi vi ville. Fordi vi vil. Fordi vi holdt fast. Og det gælder ikke mindst i Europa. Derfor skal vi videre. Lad os ikke glemme, ikke for at huske, men fordi dagen starter med et sundt og billigt måltid mad. Vi er blevet bredere, og vi har også oplevet en stor sorg, velfærd, afdrag på gælden og den enkelte families behov. Det er ikke længere nogens ansvar. Det er ikke sket af sig selv. Og for vi først dansede den meningsløse vold, er vi som nation begyndt at se tilbage, ikke blot på året der gik, men som aktiv medspiller med egen mening og egen indsats. Vi vil at punktet nu skal tage sig ud som alle andre. Og skal 1997 fortælles i billeder, er vi nødt til at holde af hver plet i landet. De er ikke kommet af sig selv. Det er mit klare indtryk. Gud. Det kan lyde som en knivskarp balance, og det gør, at den røde tråd ikke altid er til at komme udenom. Danmark, Kornmark. Vi har en bundsolid økonomi. Det har mange oplevet, hvad enten de hårde vilkår var af fysisk eller psykisk art eller skyldes andre forhold. Blev det ikke den tilværelse, de havde forestillet sig, så blev det ikke den tilværelse, de havde forestillet sig. Det er selve forhindringen, der gør det muligt møjsommeligt at komme videre. Det er så lidt, det er årets tungeste tid, hvor der kommunikeres som aldrig før. Uanset hvilken uge julen lægger sig, fejres den hemmeligt for nedrullede gardiner eller med skodder for vinduerne. Selv en nytårsaften går verden ikke i stå. Der er så meget mere, så blev det dog et liv, et liv, et liv, der skal klare linjer til, for gensidig respekt opnår man bedst, når man også ved, hvad eleverne skal have lært på forskellige klassetrin. Mere end nogensinde mærker vi, måske især, når jeg nu ønsker et godt nytår med tak for det grønlandske samfund, at når følelser og tanker får lov at komme frem, kan man sagtens komme ud for at få Irak at se frem til. Vi har råd i, at de har råd i. At vi hver især overvejer, hvad de spiser, eller rejser os som mure. Det er selve forhindringen, der spærer, så det bliver to enetaler mellem døve. Man bliver helt forpustet bare ved at trække dynen op over det hele. Danmark er et godt nytår.
13:04
Grunden til, at jeg bruger en del tid på at beskrive Markovkædegenerering, er, at vi kan bruge det som baggrund, når vi kommer frem til at tale om de store sprogmodeller.
Markov-metoden, for at forklare den så konkret som muligt, handler om at kigge på et tekstmateriale og interessere os for, hvilke ord, der kommer efter, hvilke ord. Efter et ord som "jeg", så optræder måske ordet "er" eller ordet "vil". Der kan være en række andre ord der kommer efter ”jeg”, men der er også masser af ord, som ikke vil følge efter. Man kan så lave en liste over tekstens ord og hvilke ord der følger lige efter dem, og den kan man opfatte som en repræsentation af et netværk. Fra ordet "jeg", som er et knudepunkt, så vil der så gå en række veje hen til de næste ord, de næste steder, man kan komme hen i netværket. Man kan så f.eks. vælge at gå hen til "vil", så vi nu har teksten "jeg vil". Så er spørgsmålet, hvad kan komme efter ordet "vil". Måske er der et sted i inputteksten, hvor der står "vil gerne", så nu kan vi følge den vej og skrive "jeg vil gerne". Pointen her er at ordkæden "jeg vil gerne" ikke nødvendigvis har stået i den oprindelige tekst. Det er sikkert, at der har stået "jeg vil" et sted, og det er sikkert, at der har stået "vil gerne" et sted. Men det kan sagtens være, at der ikke stod "jeg vil gerne" i teksten. Så på den måde, så genererer man jo faktisk ny tekst. Til gengæld er der det problem, at man kun har garanteret en sammenhæng i de her ordpar. Når man kigger isoleret på ordparrene, så bør de give mening eller kunne optræde som sprog, for de optræder jo i inputteksten. Men det er også klart, at når man går ud over ordpar og producerer længere kæder af ord, så vil der ikke være nogen garanti for, at teksten hænger sammen grammatisk eller semantisk. Der vil højst være en vis sandsynlighed for det.
De detaljer her retter vores opmærksomhed mod et simpelt men afgørende forhold ved vores sprog, nemlig det, at ord for eksempel tidligt i en sætning, ofte styrer eller bestemmer noget om ord meget længere hen i sætningen. Og det kan være både grammatisk og indholdsmæssigt at ordene så at sige øver indflydelse på ord langt væk fra dem selv. Og det kan jo også ske henover sætningsgrænserne.
Det kan Markov-kæde-genereringen ikke kapere, for den har jo ikke nogen hukommelse, der går længere tilbage end det foregående ord. Nu kan man udstrække Markov-princippet. Man kan tale om det ordvindue, vi kigger på. Altså indtil nu har vi snakket om et ordvindue, der er et par ord. Det er klart, at vi også kan lave lister over ordtrioer, ordkvartetter, ordkvintetter osv. Og jo længere vi laver de ordvinduer, vi kigger efter, og altså spørger for eksempel, hver gang de her ti ord kommer efter hinanden, hvad kunne det næste ord så være? Så vil man jo i højere og højere grad bare komme til at reproducere kildeteksten. Og det vil blive mindre og mindre sandsynligt, at der overhovedet er andre veje rundt i tekstnetværket , end teksten oprindeligt manifesterede.
16:27
Jeg læser lige endnu et uddrag fra forordet. Er der en forfatter til stede? Når jeg fremhæver, at teksterne betyder på livet løs, uden at have nogen forfatter, kan man indvende, at det er noget vrøvl, for computeren udfører blot de instrukser, den får, og derfor er computerprogrammøren forfatteren. Det er ikke forkert, men det er heller ikke hele sandheden. For der skal ikke meget til, før programmøren ikke kan overskue, hvad et program indebærer. Oprindelsen af bogens første tekst illustrerer det forhold. For nogle år siden var jeg i færd med at lære endnu et programmeringssprog og var ved at lave en lille test. Jeg husker ikke, hvad formålet var, men jeg husker, at det ikke fungerede efter hensigten. Helt uden indblanding for mine intentioner dukkede en tekst op på skærmen, der var tale om en fejlslagende algoritme eller rettere, en algoritme, som jeg ikke kunne overskue, som ikke gjorde, hvad jeg forventede af den. Den tekst, der dukkede op, er næsten ulæselig og udviser symptomer på en informationsteknologisk afasi, men den rummer også noget poetisk. På trods af den mekaniske og repeterende forvrøvlethed mærker man en sært rørende vilje til at kommunikere. Det var denne teksts pludselige opdukken af computerens hav af ettaller og nuller, som genvakte min fascination af mening, som ingen har ment, hvilket resulterede i denne bog.
Og det var altså altings a. Og nu er der det problem, at det er næsten umuligt at læse den tekst, jeg taler om op, men jeg gør lige et forsøg.
"Enter a filename to read" Brev Jeg har aldrig mødt i dig, ikke hvis jeg ikke siger har sig mødt i dig, kender jeg dig, det er alligevel, ikke gevel, hvis gevel, jeg gevel. Alligevel kender vel dig, er vel kender, vel jeg. Det er vel de, der vel ikke er vel rigtigt, jeg tit, el har tit, el skrevet, el tisk, skrevet, el brev, et el, men v et til, v et til, hvem? Ja, det går ikke. Christel, vil du læse det?
"Enter a filename to read" Brev Jeg har aldrig mødt i dig, ikke hvis jeg ikke siger har sig mødt i dig, kender jeg dig, det er alligevel, ikke gevel, hvis gevel, jeg gevel. Det er vel kender, vel jeg. Det er vel de, der vel ikke er vel rigtigt, elgigtigt, larg tit. El skrevet, el krevet, li brev, et len, et liltil, et elle til hvem? Et el, ja, et lilsked. Lennet, lirkelig, nurkelig, ærkelig, minklig, søvnrygme, sænrygme. Årrygme, synkoperet, ovenkoperet, jegkoperet, leverperet, helaperet, tideneret, idemperet, tilstanden, ligetanden, føretanden, jegetanden, den, ægetanden, kænetanden, h-i-n, men, hårdidelen, men, frategle, men, enategelen, men, tankebanen, men, tilgebanen, n-i-n, enke, banen, men, anden, anden, men, adden, anden, men, delten, anden, men, enesteanen, n-i-n, dersteanen, men, finnesanen, men, erne, sanen, men, wonne, iatin, men, mærkelin, men, figurærgen, men, somorærgen, men, tegnesrøgen, men, augnesrigen, men, lysglimt, i-en, men, s-omglimt. [begynd at fade ned fra det gule]
Inde i bogen er der en række meget forskellige artede resultater af de her eksperimenter med algoritmisk tekstproduktion. Eksperimenterne forløb kort sagt på den måde, at jeg genererede en meget, meget stor bunke tekst, og hver gang der var noget, der forekommer interessant, så prøvede jeg at nærlæse det og vælge ud. Og det har jo været den måde, at mine intentioner og min skabende læsning har været tydeligst i det her projekt. Det er klart, at det handler om læsning og udvælgelse, og det illustrerer igen det her med, at læsning er en skabende proces. Det er den måde, vi danner mening på.
20:53
Nu vil jeg læse nogle flere uddrag fra de genererede tekster i "Altings-A". Først lidt fra afsnittet "Ude af stand - til hvem". Det er Markov-kæde-genereringer, som – og det er en teknisk fodnote - er dannet ved at anvende overlappende dele af forskellige kildeteksters netværk.
"Jeg har det. Jeg har hørt tale om det. Det er så stort, at det ikke er så mange, der har det, som man skulle tro, at der var. Jeg vil ikke kunne sige det, men jeg ved, at det var ved at pleje at sige det, at den næste så det. Vi ønsker, at jeg hørte det et sted på den vej. At huske det. Jeg kan ikke huske, hvad det var, jeg hørte, men de er, men jeg har, har de, at et af dem. Nej, jeg kan ikke huske det. Ikke huske, hvad jeg ikke kunne se. Han vil ikke komme til at det. Jeg selv har set det. På grund af det har de forladt mig. Jeg taler om at være, at huske, hvad der endnu ikke er. Nej, jeg vil ikke. De plejer at sige til, at det har været. Jeg er ikke en af dem, som ikke havde et sted, der er på vej. Jeg har selv set dem. Jeg taler om sejr. Har I lagt mærke til det? Jeg er på grund af det eneste, der ikke har. Jeg ved ikke. De kan ikke huske. Men nej, jeg har det.
22:16
Ja, det er jo en besynderlig tekst. For mig ligger den et interessant sted, fordi den hele tiden udviser en vis form for sammenhæng, samtidig med at den flyder ud og opløses i det rene ingenting. Hvis man kender til visse former for afasi, kan man genkende noget. Der er næsten noget realistisk, der peger i retning af menneskelige sprogforstyrrelser.
Og et lille uddrag fra en tekst fra samme afsnit.
Jeg vil også læse. Må jeg læse med? Så lad os prøve unisont. Med en sten imod et udenfor. Min kæreste tager med konteksten hjem, og stenene går den lige vej. Nu skal jeg motivere min egen fortælling som vindpust. Nu er stenen følelsesløs, og du er mulig. Havet og sorgen er hule nær over. Jeg kan rettes som en lyskegle mod verden. Jeg kunne benytte vinduets tekstsamling og blive en flakkende lighed. Du kommer ind i min hjerte, og jeg kommer ind i din hjerte. Du kommer i søvne om, at jeg ikke er i strømmen af personlighed. Min kæreste tager med konteksten hjem, og graver hvert punktum ned i græsset.
Der er noget fint ved sådan en tekst, især i konteksten, den kontekst min kæreste tager hjem med. Teksten kredsen om noget der har at gøre med udsigelse og eksistens får en særlig resonans når den ikke er skrevet af nogen (alligevel Kan jeg rettes som en lyskegle mod verden – ordene, sproget måske?).
En af de interessante ting ved Markov-kædegenerering, det er, at man jo får versioner af kildetekstmaterialet tilbage i hovedet igen, bare i en ophakket form. Der forsvinder mening og sammenhæng, men mange andre af tekstens betydningslag bliver stående og bliver nærmest tydeligre. Man kan sige, at makrokædegenerering er sjovest og fungerer bedst, når inputmaterialet udviser nogle tydelige genretræk, fordi så er der en genkendelighed tilbage, som overlever hele denne her statistiske "cut up"-maskine.
Hvis man tager et inputmateriale, som er stort, f.eks. en stor samling af læserbreve, og så bruger modellen til at producere nye læserbreve, så får man jo noget, der selvfølgelig er noget vrøvl i en vis forstand, men også noget, som indeholder en masse af de træk, de her læserbreve har. Her er et tre eksempler på læserbreve, hvor kildematerialet er en stor samling læserbreve til ekstrabladet, og maskinen er så sat i gang med at generere nye. Afsnittet hedder "Tavsheden fra Sønderøden Kommune bekymrer mig".
Sex og camping.
Hvorfor skal mine skattekroner gå til at betale en eventuel overvægt? Der er jo faktisk tale om spontane, abstrakte og ekspressive grammatiske udladninger, som vi får for ærende ganske gratis. Og med tanke på hvilke kunstværker man ellers bruger skatteborgernes penge på, burde man overveje om ikke de unge skulle have udleveret spraydåserne gratis af statens kunstfond. Eller til de mange boligløse danskere. De vil blive glade for et sted at bo. Det er ferietid. Skal man købe vilæger i millionklassen til flygtningene, eller skal der hoppes og pumpes morgen, middag, aften og i nat?
"Tavsheden fra Sønderøden Kommune bekymrer mig".
Hvorfor bør man ikke længere være national? "Federlands kærlighed er nærmest af det onde". Men for de der bor til leje i baghuset til morgen på den jydervisens prangende københavnske domicil på Kongens Nytorv meddeler Ørestadsselskabet, kunstnerne Per Kirkeby, Bjørn Nørgaard og Hein Heinzen skal opføre tre stykker kunst til 18 mio. kr. fra statens kunstfond, jeg blev dybt forarvet. Den ene er amerikansk født. Den anden teaterschæffens kone. Pardon, hvis jeg gør et par andre uret. Men danske skuespillere og teaterfolk burde have stormet den spøgelsessonate. Et ophold i en beboelseskontaner vil for mange nydeligende flygtninge være ren luksus. Christina Munk, Strandmøllen Camping, Strandmøllen 2, Skodsborg.
Samfundsbetalt godhedsindustri.
Mange unge har et lovforslag på vej. De af jer, der har en samfundsbetalt godhedsindustri kombineret med en sejr i aften, har målt på spil og chancer, skabt mange gode stunder for tilskuerne til tv-serier i de gode store lejligheder i København. Langt mere artistisk indlevelse er der da også over vores egen sportsredaktør Olof Skåning Andersen, der har en donkiosk, hvor alle kender deres rolle og position. Derudover handler det om hurtig boldcirkulation og sikkerhed i opspillet og det offensive system, som må finde sig i, at du er glad for, at almindelig bordsalt er dødeligt i doser på nogle få gram per møde plus det løse. Birk Kælder, Vesselsgade 10, København, Nørre Skensved.
Noget så sjældent som et slutresultat.
Efter 8 opgør og mangfoldige træningspas, sidder systemet i rygrejen på de spillere, som skal slå myndt af situationen. Lederen af CD, Mime Jacobsen, er selvfølgelig parat til at behandle psykisk syge. Her kan de udnytte deres fors for kontraindgreb, og på intet tidspunkt bliver vores signaler opsnappet af såkaldte fjender. Måske burde industrien fremover kryptere alle e-mails. Nogle af dem har børn. Anders Christensen, Thordenskoldsgade 14, 1. Tostrup.
Og vi fortsætter lidt i samme stil, med nogle nyhedstelegrammer, hvor kildeteksten er en større samling af telegrammer fra RigsaRitzaus bureau og og andre bureauer.
Telegrammer fra den anden side. 29. januar 2012-00, Kultur. Myndighederne i Tanzania har indlet en kamp mod intetheden. Otte kønne kvinder under navnet Ron's Angels vil mandag begynde en auktion over deres boliger, mens tusindvis af ton aske og lava vælter ud og truer et ca. 30 kvm stort område. Den britiske efterretningstjeneste beskylder en pensioneret spion, Tomlinson, for det nuværende princip i branchen, hvor forfattere, der daterer sig tilbage fra 1989, anklages for dokumentfalskneri. I stedet kørte politiet ham ud til det ventende fly og fløj ham, bundet og til en vis grad nødt til at betale for forlagenes udgivelse af smal og mindre aggresiv litteratur. Politiet har i den seneste tid eksperimenteret med tamponer dyppet i vodka. Hun blev gravid med en fart på 2-3 meter i sekundet. Drillesystemet betyder, at præsidenten understreger, at Clinton ikke kendte til hendes abort, som er talsmand for en amerikansk organisation, som bestemmer, også over jorden, mens tusindvis af ton aske og lava vælter ud og truer et ca. 30 kvm stort område. 2. november 2012-00, sport. Kvindernes dragter skal være mindre. Forskere i USA har overført genet fra de monogame præ-emus til almindelige mus, der har mange partnere. Resultatet var musende ændret adfærd. De blev mere tilfredse med at have faste bogpriser, skriver de tre stiftstidende og Jyske Vestkysten. Det er godt, at vi vil ændre noget. Turister strømmer til, mens tusindvis af ton aske og lava vælter ud og truer et ca. 30 kvm stort område, og altså også anden form for alkoholnydelse blandt unge, især unge piger. De amerikanske myndigheder overvejer overdrag den videre undersøgelse af Egypt Airs flystyr den 31. oktober med New York til FBI. Den sorte boks har afsløret nogle detaljer om piloternes samtaler inden styrtet, som i praksis betød, at kvinderne skulle krybe i mindre shorts med udsyn til både baller og lår.
Ud over Markovkædegenereringsmetoden har jeg også brugt en anden form for algoritme, nemlig små generative grammatikker. I den metode er der ikke brug for nogen kildetekst. Nu er udgangspunktet en grammatisk form og en beskrivelse af den. For at give et helt simpelt eksempel, så kunne en grammatisk form f.eks. være personligt stedord + verbum i nutid + adjektiv. Det vil være en form, altså en lille sætning eller et stykke af en sætning, som starter med et personligt stedord, så kommer der et verbum i nutid, så kommer der et adjektiv osv. Det er en abstrakt grammatisk form, som vi kan udfylde med tilfældige ord fra lange ordlister, i det vi bare skal overholde de krav, som formen stiller til de enkelte ord. Den form, jeg nævnte, f.eks. kunne jo generere "Jeg elsker grønne", "Han spiser mystiske", "De danser lange" osv.
Jeg elsker grønne, han spiser mystiske, de danser lange, hun elsker mystiske, den elsker lange, det spiser grønne, vi danser tungt, jeg går tungt, han taler tungt, de vrøvler mystiske, hun registrerer grønne, det registrerer sorte, vi registrerer porøse.
Lingvisten Noam Chomsky er berømt for sin udvikling af begrebet generativ grammatik, og også for at insistere på, at man kun kan forklare vores sproglige kreative evner i kraft af, at vi har en medfødt form for grammatik, en form for dybdegrammatik, endda en generativ dybde grammatik. Chomsky er ophavsmanden til en meget kendt sætning, nemlig "Colorless green ideas sleep furiously". Farveløse grønne ideer sover rasende. Den sætning skal vise, at en sætning kan være grammatisk velformet, altså ordene, ordklasserne og bøjningerne, de er korrekte grammatisk set, men semantisk, altså indholdsmæssigt, meningsmæssigt, er den ikke korrekt, da den er meningsløs. Nu skal man jo ikke sige ”meningsløs” til en slags digter som mig. For det er næsten overraskende nemt at få den sætning til at give masser af mening. Farveløse grønne ideer, sover, rasende … grønne ideer, det er jo sådan noget med økologi, klima og så videre. Hvis de er farveløse, så betyder det noget i stil med, at de kan være fantasiløse eller uengagerede. Og hvis ideer sover, så er det jo fordi, at de ikke rigtig er kommet frem til overfladen endnu, eller de har ikke nået deres fulde potentiale. Men de sover faktisk vredt, og det giver rigtig meget mening i forhold til den klimapolitiske situation. Der er det jo lige præcis sådan, at de her klimatanker, de sover, men de sover vredt. Nå, det var i den grad et sidespring. Det er bare for mig et interessant eksempel på det her med, at hvis man prøver at finde et eksempel på noget, der ikke giver mening, så vil man opdage, at alting giver masser af mening. Det er meget vanskeligt, måske umuligt, at sige eller skrive noget meningsløst, og det følger jo igen af, at mening først og fremmest er et modtagerfænomen. (har jeg sagt det før?)
Men det var et sidespring.
Det er interessant, at de to metoder repræsenterer to vidt forskellige positioner og to forskellige indgange til grammatik og lingvistik. Markovkæderne er statistiske strukturer, som beskriver korrelationer i et sprogmateriale. En generativ grammatik er derimod en mere abstrakt og regelbaseret beskrivelse af, hvordan det her materiale kan produceres. Det er altså statistik overfor regler, og de to yderpoler er interessante at have i baghovedet. For når man kigger på hele den kunstige intelligensforskningshistorie, så er de faktisk synlige som to spor, hvor man på forskellige tidspunkter har sat sig mere i den regelbaserede retning, og på andre tidspunkter har sat sig mere i den statistiske retning. Og sådan som det ser ud nu, kan man sige, at det er statistikken, der har vundet, men det vender jeg tilbage til.
Og så nogle enkelte eksempler på tekster, der er produceret ved hjælp af generative grammatikker, fra afsnittet Relative arkivstykker. Og der har vi først forklaringen på, at bogen hedder "Altings A". Det er jo selvfølgelig et udtryk, som er blevet produceret af en af de her maskiner, og det står i følgende lille tekst.
"Juroraffær argumenteret med metal, påmindes med årsagssætning, Svejmasten, aftenturen, solens selvdød, altings A."
Det er måske ikke den mest fantastiske tekst, selvom den har en vis bevægelse, men udtrykket "Altings A" er altså ikke dårligt. Det har jeg taget til mig og holdt fast i siden.
Motionscykel. Som den talemåde, jeg er, kan jeg faktisk tilægge lysgiveren en tankesteg. "Din taktart slævebinder normal forbruget, uden at medbringe andet end en fastgørelse, en strofisk fastgørelse, uden talerør, uden dig med hundstæk i dine paradistræer, uden den stenografi, der viser sig i din fastgørelse." "Kenderblikkets elementarpartikler. Stativet bliver friseret af sit sommerhalvår, men konventionen siger helår. Fra pappegøje til dueligt seismogram, fra sc rapbøger til følelseskulde. Et billedtæppe er stadig et korthus, verbaladjektiver stadig pergamentpapir. Fra indrømmelsesledsætning til ønskværdigt forsatspapir. Fra sengevæder til ådsedsæder. Fra ekspresstog til grillrist. Fra rumstering til grundvideansk spejderhavl. Fra glose til solsystem." "Hvad er et spydkast?" "Yndigt spydkast. Det du troede var et havari, er faktisk pianettets gnidebillede. Det du troede var et huskeråd, er faktisk sennepsbladets bundbræt. Det du troede var et tag, er faktisk folgebjærets marsvin. Det du troede var et hornkvæg, er faktisk præstegallens koøje. Det du troede var et hellæderbind, er faktisk borgsejlets helbred. Det du troede var et vingeslag, er faktisk nuets terrassehus."
Ja. Okay, vi har godt nok taget fejl mange gange. Sådan nogle tekster bliver nok trættende i længden. Men der bliver også ved med at være noget interessant i, hvordan der dukker - - hvis ikke diamanter, så i hvert fald funklende sten op - - rundt omkring i de her tekster.
Som sagt er de tekster, jeg lige læste, er lavet ved hjælp af generative grammatikker. I de her tilfælde er det generative grammatikker, der medtager eksempler på digtforme. Nogle af de strukturer, fx gentagelser, der organiserer digtet, er bibeholdt - - og de bliver udfyldt med de her tilfældige ord, så længe de passer ind i formens grammatiske krav.
Dem sproglige effekt er meget anderledes end markovkæderne, men det er stadig sjovest at arbejde med skemaer taget fra velkendte tekststrukturer -, noget der har klare genretræk. For eksempel er her en biografi, hvor formen er noget med - - først skal der være nogle personnavne, så er det årstal og en levealder - - så kommer der en variation af udtrykket "Det meste af sit liv". Så kommer der stednavne, hvor personnavne var substantiv og forskellige bøjninger osv. Her er to eksempler:
Biografi "Morten Jacobsen 1896-1933". "Levede sit liv i Bangkok, hvor han var kragejolle og håkonskage." "Det ravjyske liv blandt grundvidenskaberne, fejlfyldt arbejde og en kontekstfri slægt - - præger forfatterskabet. Mange filosofer reciterer Jacobsens obligate digte." "Mest kendt er revir og gesimsskulptur, men også yngledygtigt tiltvingeri er usandsynligt klatvis." "Han har også vejlet sangfugle og forfattet bøger om hensættelser." En anden interessant forfatter er Johan Svensen. Biografi "Johan Svensen 1904-1984". "Vokset op i Kajro som eksistentialist og posedame. Bosatte sig senere i Rusland." "Allerede de første værker omhandler det uoversættelige liv blandt kartoffelskrallerne - - og det bliver et tilbagevendende motiv." "I den modende produktion - stavsejl, infiltration, kopmål, satsbetegnelse og kritikløst genvælgeri - - må troløst arbejde og en præventiv troværdighedskløft holde for." "Svensens ortodontiske digte fremhæves ofte for deres etnocentrismer - - mens hans bøger om opdateringer ofte forbigås." "Uforgængeligt remarkabelt er hans lange arbejder om giftessyge." "Til sidst i livet var han både stilretning og slikpåre, træstemmelig som få og utrolig åben lys."
Haha - jeg må indrømme, at jeg bliver ved med at finde de tilfældige sammenstød i de tekster ret sjove. Både stilretning og slikporre får mig hver gang. Jeg er også vild med at Morten Jacobsen bl.a. har vejledt sangfugle. Der er et spil mellem en absurd tilfældighed og den genkendelige form, som kommer ind. Det peger på noget interessant ved den slags arbejde - hvadenten det er med markovkæder eller generative grammatikker. Man fremhæver og tydeliggør de skemaer, som ligger i de tekster vi ellers bruger, uden at lægge videre mærke til dem. På den måde kan det have en vis frigørende effekt. Det kan pege på noget af den spændetrøje, som sproget også er - - og løsne lidt op for den. Det viser sig, at man kan tømme en tekst for ganske meget betydning. Man kan rode fuldstændig rundt i dens umiddelbare, tydelige, semantiske lag - - og så tydeliggøre en anden slags betydning. Den betydning, der er i selve tekstens struktur som tekst, dens sproglige stil og diktion. De fleste af de træk bliver jo bibeholdt.
Nu vil jeg slutte det første afsnit af. Jeg håber, det var lidt interessant og sjovt at høre om de teksteksperimenter - - både dem, der går i den statistiske retning og dem, der går i den regel- eller formbaserede retning.
Du lytter til "Om det hele og resten". En podcast, der handler om det hele og resten. Som navnet angiver. Du lytter til podcasten "Om det hele og resten" af Tomas Thøfner. Denne gang en soloepisode, selvom jeg er med. En soloepisode med titlen "De store sprogmodeller hallucinerer". Anden del "Turingtesten og Elisa-effekten".
I dette afsnit skal vi tale om den tilbøjelighed, vi har til at tillægge sproglige udtryk intentioner og mening - - selvom de resultater er algoritmer og kommer ud af en maskine. Der er to centrale nøglebegreber her. Turingtesten og Elisa-effekten. Turingtesten er, som måske bekendt, navngivet efter Alan Turing. Den geniale matematiker, som var ophavsmand til meget af grundlaget for moderne computer- og computervidenskab - - og som desværre begik selvmord, formentlig som et resultat af omverdens manglende accept af hans homoseksualitet. Men det er en anden historie, som man kan se f.eks. i filmen "The Imitation Game". I 1950 udgav Turing sin berømte artikel "Computing Machinery and Intelligence". Og det var i den, at han introducerede, hvad der er blevet kendt som "Turingtesten".
Jeg mener, at det om ca. halvtreds år vil være muligt at programmere computere med en lagerkapacitet på ca. ti i niende, så de vil spille imitations-spillet så godt, at en gennemsnitlig afhøringsleder ikke vil have mere end 70 procents chance for at foretage den rigtige identifikation efter fem minutters afhøring. Det oprindelige spørgsmål "Kan maskiner tænke?" mener jeg er for meningsløst til, at det fortjener at blive diskuteret. Ikke desto mindre mener jeg, at i slutningen af århundredet vil brugen af ord og den generelle informerede opfattelse have ændret sig så meget, at man vil kunne tale om maskiner, der tænker, uden at forvente at blive modsagt.
Artiklens spørgsmål er, hvornår man skal sige, at en computer er intelligent. Turing er interesseret i at operationalisere det spørgsmål, og han gør det på en måde, der er indsigtsfuld - - men også lidt utilfredsstillende. Han gør det nemlig til et spørgsmål om mennesker, der sidder foran en terminal og kommunikerer via tastatur og skærm eller printer - - er i stand til at afgøre, om det, der er i den anden ende, er et menneske eller en maskine. Turing-testen er altså en test, der afprøver, om computeren eller rettere programmet - - kan nare mennesker eller ej ved at illudere at være et menneske. Spørgsmålet om, hvornår en computer er intelligent, forvandles dermed til - - hvornår kan en computer danne illusionen om intelligens? Alt efter temperament kan man synes, at det er genialt, fordi begreberne bliver operationaliserbare - - eller fladt, fordi man på den måde går helt udenom det spørgsmål, man startede med at stele. Man bliver ikke en tøddel klogere på, hvad intelligens er - - ved at sige, at intelligens er det, vi vurderer som intelligens. Den originale artikel er sjov at læse, ikke mindst fordi den overvejer eksempler på - - hvad der kan være unikt menneskeligt i en sådan situation. Er det at være god til at spille skak? Er det at være god til at skrive poesi? Han behandler også en række argumenter imod maskiner mulighed for at tænke – diskussioner som er lige så relevante i dag som i 1950. Som når han fx skriver om indvendingen at computere aldrig kan gøre noget virkelig nyt, og forbinder det med spørgsmålet om algoritmerne kan overraske os. Turing skriver:
” Opfattelsen af, at maskiner ikke kan give anledning til overraskelser, tror jeg skyldes en fejlslutning, som især filosoffer og matematikere er udsat for. Det er antagelsen om, at så snart en kendsgerning præsenteres for et sind, vil alle konsekvenser af denne kendsgerning dukke op i sindet samtidig med den. Det er en meget nyttig antagelse under mange omstændigheder, men man glemmer alt for let, at den er falsk.”
Og det er jo rigtigt. Maskiner og algoritmer overrasker os ofte. Ideen om at vi i princippet ikke ”burde” blive overraskede over konsekvenserne af en algoritme giver ikke mening i virkeligheden, hvor algoritmer tager tid og kræver ressourcer og præcis information. Ingen af delene har vi en endeløs forsyning af.
Der er ikke tvivl om, at Turing i den grad var forud for sin tid. Computeren i hans samtid var langt fra at kunne gøre noget, der bare lignede - - hvad enhver mobiltelefon i dag gør, mens den gør noget andet. Nu med chatbot-revolutionen virker Turingtesten og Turings artikel på en gang profetisk og banalt. Det bliver ved med at være et interessant spørgsmål, hvordan vi afgør - - om vi chatter med et menneske eller en bot. I realiteten er det yderst komplekst. Nogle gange afslører vi chatbotten, fordi den er dum. Nogle gange, fordi den er for smart. Nogle gange er den for langsom. Andre gange for hurtig. Nogle gange forstår den for lidt. Andre gange ved den for meget. Og igennem det hele er vores yderst dynamiske, kontekstuelle følsomhed på spil. Men det er svært at trække skarpe grænser, for også mennesker er som bekendt - - indimellem upassende eller ikke tunet ind på situationen. Spørgsmålene er midt i et kompleks af psykologiske, sociologiske og lingvistiske tematikker. Som vi kan lære af pragmatisk tekstteori, så forskellige steder som hos Jürgen Habermas, - - Ole Togeby, Peter Zinkernagel, går vi ikke til sproglige udsagn forventningsløse fra et nulpunkt. Tværtimod regner vi med, at de sproglige udsagn vi hører eller læser er meningsfyldte, - - at de har en værdi af en slags, at de er informative, at de er sandfærdige osv. Det er en uudtalt kontrakt, som i al almindelighed er i funktion - - indtil der eventuelt kommer grus i maskineriet, og vi bliver usikre på, om kontrakten er overholdt. Den her kommunikative rettethed mod sprog, den er dyb og rodfæstet i os. Når vi først har automatiseret læsning, er det vanskelig at slå fra igen. Når vi fæster blikket på nogle ord, så læser vi dem nærmest lige så umiddelbart som når vi hører en lyd. Det er ikke noget, vi vælger at gøre eller ej. Så når der dukker ord op på en skærm, eller de står på et stykke papir, - - eller kommer ud højtalere, som mine ord gør lige nu, så bliver de hørt som mening. Det er klart, at der er en kompleks og sammensat proces i gang, og der er alle mulige fortolkningslag involveret, - - men oplevelsen er, at ordene går lige ind. Under normale omstændigheder opføres de simpelthen som betydning i os. Det er for mig at se en underliggende eller grundlæggende forklaring på ELIZA-effekten.
Og hvad handler den så om? Forestil dig, at du er tilbage i 1960'erne. Du er inviteret ind på et yderst moderne databehandlingslaboratorium af en lidt provokerende professor, Joseph Weissenbaum. Du er inviteret ind for at deltage i et eksperiment. På forhånd har du kun fået at vide, at du skal føre en dialog med et avanceret computersystem. Weissenbaum har udviklet en digital psykolog, og det er den du skal tale med. Du kommer ind i rummet. Der er en konstant lav summen fra blæser og noget, der lyder som små motorer, der hviler. Langs væggene står skabs store metalkabinetter med spolebånd og små blinkende lamper. Næsten midt i rummet står et bord med en grønt lysende skærm, mindre end et a4-ark. Og du bliver bedt om at tage plads foran den ved tastaturet, som er stort og klikker højlydt, da professoren starter programmet. Lysende grønt dukker følgende op på skærmen. "Hello, I am Elisa. I'll be your therapist today." "Bare skriv, hvad du vil sige til en menneskelig psykolog", siger professoren og træder et skridt tilbage for at give dig lidt plads. Han står nu stadig med blikket rettet stift mod skærmen. Nu kommer det interessante.
Mange mennesker, der interagerede med Elisa, blev overraskende involveret i samtalerne med hende. De begyndte at tillægge hende en form for intention og følelse og forståelse. Selvom Elisa blot fulgte en simpel tekstbaseret algoritme, blev folk trukket ind i samtaler, hvor de åbnede op for deres følelser og tanker.
Det er f.eks. er en ofte gentaget historie, at Weissenbaums sekretær bad ham om at forlade rummet, så hun kunne føre en intim samtale i fred. Jeg har ikke noget som helst at have det i, men jeg har på fornemmelsen, at Weissenbaum har strammet lidt op på historien. Jeg tvivler på, at modtagelsen af Elisa gav så entydigt et billede. På den anden side er det givetvis rigtigt og fascinerende, at der virkelig ikke skal mere til end lidt kode, før vi, mange af os i hvert fald, tillægger algoritmen langt mere forståelse, end den har. Og den har sådan set overhovedet ingen forståelse.
Her er et eksempel på en dialog, som Weissenbaum publicerede. Den første replik er menneskets. I det her tilfælde en kvinde. Og nu kan jeg ikke lade være med at vende tingene lidt på hovedet, så jeg spiller rollen som Eliza, og .. "Kristel! Vil du spille kvinde?"
"Det kan du tro." "Mænd er ens." "På hvilken måde?" "De irriterer os altid med et eller andet." "Kan du komme med et specifikt eksempel?" "Altså, min kæreste tvang mig til at komme her." "Din kæreste tvang dig til at komme her?" "Han siger, jeg er deprimeret det meste af tiden." "Jeg er ked af at høre, at du er deprimeret." "Det er sandt. Jeg er ulykkelig." "Tror du, at det at komme her vil hjælpe dig med ikke at være ulykkelig?" "Jeg har brug for hjælp. Det er helt sikkert." "Hvad ville det betyde for dig, hvis du fik hjælp?" "Måske kunne jeg lære at komme overens med min mor." "Fortæl mig mere om din familie." "Min mor passer på mig." "Hvem mere i din familie passer på dig?" "Min far." "Din far?" "Du ligner min far på nogle måder." "Hvilken lighed ser du?" "Du er ikke særlig aggressiv." "Men jeg tror ikke, du ønsker, at jeg skal lægge mærke til det." "Hvad får dig til at tro, at jeg ikke er særlig aggressiv?" "Du argumenterer ikke med mig." "Hvorfor tror du ikke, at jeg argumenterer med dig?" "Du er bange for mig." "Behager det dig at tro, at jeg er bange for dig?" "Min far er bange for alle." "Hvad andet falder dig ind, når du tænker på din far?" "Bøller."
Og så videre. Og hvad skal man sige om sådan en dialog? Overfladisk set virker det, som om, at Elisa-botten faktisk indgår på en meningsfyldt måde i denne dialog. Når kvinden skriver, at hun har brug for hjælp, så siger Elisa, at hun vil have hjælp. Og når kvinden siger, at hun kunne lære at komme overens med min mor, så siger Elisa, at hun vil fortælle mere om sin familie. Det virker, som om, at Elisa forstår og egentlig er i gang med noget, der er meget genkendeligt som terapeutisk arbejde. Det hænger sammen med noget, jeg var inde på i forbindelse med mine egne teksteeksperimenter. Det her med, at genkendelige genrer fungerer bedst. Hvorfor fungerer de bedst i de her sammenhæng? Det er, fordi genren i sig selv gør en stor del af arbejdet. Der er en genkendelig og forståelig ramme her, hvor man ikke har alle mulige diffuse forventninger til samtalepartnerens replikker. Man forstår dem allerede på forhånd, som i det her tilfælde, som noget, der indgår i sådan en terapeutisk genre.
En af grundene til, at Elisa er så godt et eksempel på … ja, på, Eliza-effekten, er at programmet er uhyre simpelt. Hvis man skriver det ud, fylder det måske en femten a4-sider. Der er ikke noget, der ligner et neuralt netværk eller avanceret statistisk databehandling her. Det er et simpelt, regelbaseret program. Alligevel blev folk trukket ind i de her samtaler, og mange oplevede at blive forstået og hørt.
Hvorfor får vi nemt den oplevelse med Eliza, og begynder at tillægge hende en form for intention og følelse? Ja, nu siger jeg for eksempel hende, hvilket selvfølgelig er absurd. Der er en stor kompleksitet her, også i analysen af, hvordan vi omtaler hvad der egentlig foregår. Vi siger for eksempel, at computeren lige skal tænke over det, at den bryder sammen, at den ikke kan lide, når vi gør sådan og sådan, at den bliver forvirret, hvis vi gør dette eller hent. Men det er et åbent spørgsmål om, den slags udtryk egentlig er antropomorficeringer af maskinen. Vi siger jo også, at tiden går. Vi siger, at et bord har ben.
At der skabes betydning og mening i dialogen med Elisa er jo heller ikke så mærkeligt, når man tænker på, at der skabes betydning og mening, blot man sidder alene og skriver noget ned. Mening er, som jeg ikke skammer mig over at gentage urimeligt mange gange, et modtagerfænomen. Og sprog, det betyder. Det behøver overhovedet ingen intention.
Hvordan fungerer Elisa-programmet? Først og fremmest kigger det efter nogle nøgleord. Og hvis de her nøgleord optræder, så har det nogle fraser parat, det kan bruge. Et eksempel kunne være det her med, at klienten her siger, "måske kunne jeg lære at komme overens med min mor". Og Elisa forstår ikke noget som helst af den sætning, er ikke i stand til at analysere den grammatisk eller noget som helst. Den kan genkende nøgleordet "mor". Og når nøgleordet "mor" optræder i inputtet, så spytter Elisa et svar ud. "Fortæl mig mere om din familie". Elisa har også et par andre smarte tricks op i sit digitale ærme. Udover at kigge efter nøgleord og have bestemte fraser parat, så gør Elisa også det, at den genkender visse tydelige sætningsstrukturer, som den så kan vende om, så den f.eks. kan lave et udsagn om til et spørgsmål. Den slags helt simple ting, som i øvrigt meget nemt går galt. Altså man skal ikke være særlig sprogligt kreativ, før Elisa ikke kan følge med. Men på den anden side, hvis man som udgangspunkt tager det alvorligt og udtrykker sig almindeligt, jamen så fungerer det overraskende godt. Endelig har Elisa også det trick, at hvis den ikke ved, hvad den skal sige, jamen så har den et antal fraser på lager, som passer til de fleste lejligheder.
Eliza-effekten kan i parentes bemærket fungere som en kritik af en hel del menneskelig kommunikation. Det er fx ikke spor usædvanligt at blive mødt med sprog i en pædagogisk eller terapeutisk sammenhæng, som virker mekanisk og overfladisk. Fraser, simple reaktioner på nøgleord og dialogiske metoder som følger bestemte procedurer – kender vi. Nogle gange virker de, andre gange hører vi det som uægte. Der bliver ikke virkelig forsøgt at lytte og forstå.
"Elisa-effekten", siger noget dybt fascinerende om vores menneskelige natur. Vi har en tendens til at tilskrive intention og følelse til sproglige udtryk, selv når de kommer fra maskiner. Vores hjerner er indstillet til at søge mening og forbindelse, selv i det upersonlige. Vi er tilbøjelige til at projicere vores tanker og følelser på andre, selv når andre blot er et computerprogram. Den tendens har dybe implikationer, ikke kun for vores interaktion med teknologi, men også for den måde, vi forstår os selv på. En pointe, vi kan uddrage, er, at vi er nemme at narre, og det er jo rigtigt nok, men det er ikke den mest interessante pointe.
Mere interessant er det at bruge "Eliza-effekten" som et prisme, vi kigger på al kommunikation igennem. Det jeg mener er at Eliza minder os om at vi aldrig nogensinde afsender eller modtager mening, vi kan kun udveksle udtrykkets overflade.
Set på den måde er det ikke et spørgsmål om at blive narret eller ej, men om at … ja, nu siger jeg det igen … at mening er et modtagerfænomen. (Det har du godt nok sagt mange gange.) Og at mening mindst lige så ofte opstår bagefter en ytring som før. Man siger noget, og så kan man spørge sig selv; hvad mente jeg egentlig med det? Eller bedre; hvad kan det betyde i min sammenhæng?
Når Weissenbaum døbte sit program Eliza var det formentlig en reference til George Bernhard Shaws skuespil ”Pygmalion”, hvor en professor oplærer den fattige Eliza Doolittle i at tale som en overklassedame. Et af det skuespils temaer er hvorvidt Eliza virkelig ændrer sig eller om der er tale om en overfladisk illusion. Joseph Weissenbaum arbejdede som sagt med de her ting netop for at pege på den karakterer af illusion, der meget hurtigt kommer til at ligge i sådan noget som chatbotter. Og den illusion, den vilje til at producere mere mening end der er, den kan man sige følger os overalt. Den kan vi genfinde en masse steder.
Vi kan tænke på astrologi, spådomskunst, alle mulige metoder og situationer, hvor vi efterspørger råd og vejledning og forståelse og mening. Vi kan tænke på ideer om, at der er mennesker, der har særlige adgange til indsigt eller i særlig grad har adgang til forståelse. Vi kan tænke på tilfældige sammentræf. I alle disse forskellige fænomener er det nemt at få øje på Eliza-effekten. Eller jeg vil egentlig hellere bruge et mere bredt udtryk og navngive det menings-effekten. Og ordet menings-effekt skal så simpelthen dække over alle de måder, hvor vi i kraft af vores menneskelige egenskaber producerer mening, som ikke er til stede på forhånd eller uafhængigt af os.
Menings-effekten er poetisk i den forstand, at den er skabende. Ligesom den oprindelige græske rod af poesi, poesis. Vi skaber, vil jeg påstå, altid mere mening end der er. Det er det vi gør. Vi er det poetiske dyr.
(Nu har jeg brug for et minut med Kalles musik.)
Nu vil jeg gerne prøve at give en forklaring på hvordan de store sprogmodeller som ChatGPT virker. Sådan en kan man selvfølgelig finde mange steder, men jeg synes ikke, at der er så mange forklaringer, som får fat i det centrale på en ikke teknisk måde. Så her er mit bud. Lyt også til professor Anders Søgaard i forrige episode, her siger han:
”En måde at tænke på sprogmodeller og sprogteknologi, Det hele tager af, at vi lærer funktioner. Matematiske funktioner, for det er lidt som i folkeskolen, sådan nogle fx, lige med x+2-agtigt. Vi lærer bare funktioner fra nogle talr epræsentationer af tekst, til nogle talrepræsentationer af tekst.”
Søgaard siger altså at sprogmodellens neurale netværk kan ses som en kompliceret funktion. Der kommer talværdier ind, funktionen gør noget ved dem, og der kommer talværdier ud.
Hvordan kan vi få en større forståelse af hvordan det kan føre til chatbotter vi kan føre dybe dialoger med?
Når jeg taler med folk, der gerne vil forstå noget om chat-GPT, men som ikke har tekniske forudsætninger, så bruger jeg gerne en gammel mobiltelefon som udgangspunkt. selv en klassisk Nokia-model kan hjælpe med at skrive sms'er, ved at gætte på, hvad de næste ord kan være. Hvordan gør den det? Den simpleste metode er at have en liste over ord, som ud fra hvert ord har noteret, hvad de fem eller ti mest sandsynlige følgende ord er. En sådan liste er nem at lave ved at starte med et større tekst-korpus, og så løbe det igennem. Så nu har vi en metafor for chat-GPT på niveau 1. Chat-GPT er sådan en klassisk Nokia-telefon på stereoider.
Jeg har tidligere talt om Markov-kædemodeller, og det er det, der er tale om, en ganske simpel en af slagsen. Selv en sådan Nokia-model kan man bruge til at producere tekst. Det er bare at begynde med et ord, og så bliver vi med at vælge et af dens forslag. En sådan tekst vil få den særlige karakter, at den ligner dansk sprog ganske meget, og samtidig er den præget af, at den ikke rigtig handler om noget. Den taler ved hele tiden at sige det, man plejer at sige, og på den måde havner man i lange kæder af fraser og fyldord. Markovkæderne kan, som jeg tidligere var inde på, udvides til at kigge på et større tekstvindue af gangen. Hvis nu det tekstkorpus, der er udgangspunktet, var uendeligt stort, ville det faktisk fungere. Så kunne man jo spørge efter det næste sandsynlige ord efter fx de her 100 ord, og et sted på listen ville vi faktisk have et godt bud. Men tekstkorpusset er, selvom det er stort, slet ikke stort nok. Der er brug for en anden måde at forudse det næste ord på, en metode, som ikke bare kigger på overfladen af ordenes kæder, kan man sige, og som ikke bare uflexibelt er styret af det foregående ord, ordpar eller ordtrio. Markovmetoden giver sammenhæng, men kun snævert og lokalt. Hvordan kan vi udnytte og tage hensyn til konteksten? Hvis vi nu ville lave en bedre version af forudsigelsen af det næste ord i SMS'en, så kunne en idé være at operere med forskellige ordlister alt efter konteksten. Det er måske fx sådan, at de hyppigste ord, der typisk kommer efter "vaske" er sådan noget som "op" og "tøj" og "bil", fordi man tit vil skrive noget med at "vaske op", "vaske tøj", "vaske bil". Men hvis vi nu er i en kontekst, der handler om lyssky pengeoverførsler, så vil et godt bud være noget med at "vaske penge hvide". Så nu kunne vi forestille os, at du oprettede et stort antal særlige lister med hyppige næsteord i forskellige kontekster. Så det eneste, vi mangler, er en måde at afgøre, hvilken kontekst vi er i. Det kunne vi løse ved at lave flere lister, sådan at vi havde en liste over ord, der, når de optrådte, parrede i retning af et "pengetema" og en liste med ord, der parrede i retning af "tøjvask" eller "bilvask" osv. Det ville bestemt fungere til en vis grad, men det er klart, at det ville være noget af et arbejde at lave alle de lister. Og nu vender vi så tilbage til ChatGPT, for det er ikke helt forkert som en metafor, at det smarte ved teknologien i de store sprogmodeller er, at de selv kan lave alle de lister. Nu er listeideen lidt for grov. Det er bedre at forestille os alle ordene placeret svævende i rummet. Ord, der deler kontekst og har rigtig meget med hinanden at gøre, vil danne klynger. Et ord som "vaske" vil have en placering imellem de ord, der har at gøre med "bilvask", dem, der har at gøre med "tøjvask" osv. En placering, som præcist svarer til den fordeling, der er i de data modellen er trænet på. Når modellen så skal finde et sandsynligt næste ord, vil den være styret på rette vej af det sted den er i det store sproglige rum. Det var en metaforisk forståelse på andet niveau.
[Musik]
Så bliver vi lidt mere tekniske og spørger, hvordan laver man sådan et sprogligt rum? Først må vi have et neuralt netværk. Det er vanskeligt at gå i detaljer med mundtligt, men det er egentlig ikke svært at forstå princippet. Det neurale kommer af, at man på en simpel måde har lavet sig at inspirere hjernens neuroner. Her er et forsøg på en simpel forklaring. Hver neuron i det neurale netværk, modtager en talværdi og sender en talværdi videre. Der kan så justeres på, hvor høj værdien skal være, før der kommer noget videre, og på, hvor meget der kommer videre. Vi kan forestille os et kolossalt system af vandrør, med flere fittings, haner og koblinger, end det lokale byggemarked kan byde på. Vi sender vand ind i systemet, og det løber rundt på alle mulige måder, indtil det kommer ud igen af afløbet. Nu kan man vise, at hvis bare man justerer alle hanerne på den rigtige måde, så kan man få lige det forhold, man gerne vil have mellem indløb og afløb. Det synes jeg også er nemt at forestille sig. Nu stiger abstraktionsniveauet, men vi holder fast i strukturen. De store sprogmodellers transformerarkitektur tager ikke vand ind, men strømme af tekst, der er segmenteret i mindre dele. Lad os bare holde fast i ord, som enhederne. Modellen får et ord ad gangen i rækkefølge, jeg retter sagt, ord, som er lavet om til talværdier. Så gør netværket noget ved de talværdier, ligesom VVS-netværket gør noget ved vandet, og ud kommer nogle andre talværdier. Modellen laver altså en eller anden funktion på inputtet. Til at begynde med, at det tilfældigt, for vægtende i netværket, det der svarer til vandhægene og ventiler, er ikke justeret til noget specielt. Den funktion, vi gerne vil have netværket til at repræsentere, er en funktion, der på baggrund af et ord og de foregående ord, spytter et godt næste ord ud. Det smarte er, at i træningsfasen er det jo kendt, så vi kan lade modellen forstå, hvor langt den var fra det korrekte svar. Det vil sige, hvor langt væk i det store sprogrum den var fra kildetekstens svar. Det er det, man kalder en objektiv tabs-funktion, en såkaldt loss function. Nu skal vi bare ind og justere på alle vandhægene og ventiler, så tabs-funktionen bliver mindre, og vi kommer tættere på det, vi gerne vil have, at netværket gør. Det vanvittigt smarte er, at man kan få modellen til selv at gøre det, og gradvist trænes netværket til at minimere afstanden mellem dets output og det faktiske næste ord i tekstkorpusset. Træningen går ud på at minimere tabet, kan man sige. Det sker ved hjælp af den såkaldte backpropagation-algoritme og gradient descent. Backpropagation er den algoritme, der bruges til at justere vægtene i det neurale netværk under træningen. Den fungerer ved at justere fejlen baglæns gennem netværket lag for lag. Det det "propagerer" betyder. Ved at følge fejlen baglæns er det ikke kun outputlaget, der justeres, men også alle de foregående lag, der bidrog til forudsigelsen. På den måde minimeres fejlen i hele modellen. Gradient descent er den metode, der på hvert trin bestemmer, hvordan vægtene skal justeres for at minimere tabet. Det handler om at beregne i hvilken retning vægtene skal justeres. Visuelt kan man tænke på tabsfunktionen som et bakket landskab - gradienten. Det gælder om at gå ned ad bakke mod en dal og finde et minimum. På den måde stiger man ned ad gradienten. Ved at kombinere backpropagation og gradient descent kan transformermodellen lære at justere alle sine vægte og minimere forudsigelsestabet gennem en masse træningstrin. Jo mere data den trænes på, desto bedre bliver den til det. Somma summarum jo mere modellen trænes på store tekstmængder, desto bedre bliver dens evne til at forudsige det næste ord ud fra konteksten. Til sidst konvergerer modellen mod optimale vægte, som giver den her stærke sprogforståelse og lærer transformerarkitekturen at modellere sprog. Simpelthen ved at absorbere de statistiske mønstre fra enorme sæt af tekst. Det var en lidt dybere forståelse.
[Musik]
Nu mangler vi kun at fokusere på den særlige mekanisme, der kaldes opmærksomhed eller attention. Et hold forskere fra Google udgav et vigtigt papir med den kække titel "Attention is all you need". Det var i 2017. Her beskrives en opmærksomhedsmekanisme, som er helt afgørende for transformer arkitekturen. Kort sagt så beregner opmærksomhedsfunktionerne et opmærksomhedstal for hvert ord. Et tal, som angiver, hvor vigtigt ordet er for betydningen af teksten. Ord med høj opmærksomhed vægtes højere, når modellen skal forudse i det næste ord. Og på den måde fokuserer modellen mere på ord, som er relevante for konteksten end på tilfældige ord og ord, som ikke gør den store forskel. Ved at kombinere alle ordvektorerne, altså alle ordenes talværdier, med deres opmærksomhedstal, kan modellen så generere en kontekstafhængig forudsigelse. Efterhånden lærer modellen de optimale opmærksomhedsfunktioner gennem træning på store tekstmængder. Og på den måde så får modellen evnen til at fokusere på de vigtigste ord i en given kontekst. Vi kan igen forestille os det store sprogrum, hvor ordene hænger fordelt i luften i klynger. Hvis vi er et bestemt sted i rummet, hvor meget flyttes vi så af de næste ord i inputteksten? Et ord med et stort opmærksomhedstal vil være afgørende og måske flytter os et helt andet sted hen. Et ord med et lavt opmærksomhedstal er ikke så vigtigt. Så i forhold til makromodellerne opererer de store sprogmodeller på et helt andet niveau. Via deres opmærksomhedsmekanisme så spiller alle tidligere ord i teksten en vigtig rolle og ikke kun det seneste. Den evne til at kigge længere tilbage giver modellerne en meget bedre forståelse af konteksten i en samtale. De kan følge med i emnet over flere sætninger eller afsnit, i stedet for at hoppe tilfældig rundt mellem hyppigt forbundne ord. Så selvom begge metoder bruger statistiske mønstre fra tekst, så er transformermodellerne i stand til at føre en langt mere meningsfuld dialog takket være denne her opmærksomhedsfunktion, der gør det muligt for modellen at bruge hele konteksten. Det kontekstvindue modellerne kan operere med, svarer ret nøje til hukommelsen i en samtale. Det vi sagde i en samtale for 10 minutter siden, klinger stadig med og har betydning for, hvad vi kan sige og forstå. Og sådan er det også med sprogmodellerne. Sprogmodellernes kontekstvinduer bliver ved at vokse efterhånden som modellerne bliver udviklet og kommer i nye versioner. En model som Claude fra firmaet Anthropic kan holde en hel bog i sin konteksthukommelse.
[musik ]
En måde at koncentrere idéen om ”attention” og hvordan forudsigelse af det næste ord i en tekst (noget der umiddelbart virker så banalt) er at tænke på en kriminalroman. En af den slags hvor der er lagt spor ud til læseren. På side 347 holder detektiven en lille tale og slutter af med at sige ”Og morderen er… ”, før han holder en kunstpause. Hvis vi nu skal kunne forudsige det næste ord, kan vi ikke gøre det med overfladiske regler; så er det nødvendigt at alle relevante dele af hele den foregående kontekst indgår i beregningen. Det er det attentionmekanismen gør.
Nu tænker jeg, at vi har en forståelse der ikke kan blive meget større uden at blive egentlig teknisk. Hvorfor finder jeg nu, at alt det her er spændende? En ting er, at det kan være vigtigt at have en forståelse af en teknologi, som er så betydningsfuld. Og det er der slet ingen tvivl om. Noget andet er, at der simpelthen er mange potentielle indsigter i de her teknologier. Det er fascinerende for eksempel at tænke på, hvad der foregår, når vi læser digt og så i baghovedet have nogle af de her tanker, som kommer fra sprogmodellernes verden. Vi er i en kontekst, et sted i sprogrummet og hvert ord sender os i det andet sted hen. Poesien som genre er kendetegnet ved, at opmærksomhedstallet for hvert enkelt ord bør være højt. Vi skal på en rejse gennem sprogrummet. Man kunne forestille sig en figur tegnet i det her store sprogrum, en koreograferet dans eller bevægelse gennem sprogrummet. Her er det jo i øvrigt også klart, hvorfor sprogmodellerne kan skrive ganske gode prosatekster i en hel del forskellige genre, men at det kniber med poesien. I den typiske prosatekst er det helt rimeligt, at de følgende ord er blandt de mest sandsynlige, i hvert fald sådan det meste af tiden. Men poesi er allergisk overfor, hvad man plejer at sige.
Jeg kaldte mine egne Markovkædegenereringer for statistisk cut up. Er de store sprogmodeller også bare cut up på et højere plan, eller sagt på en anden måde? Kan der komme noget nyt ud af de her modeller, eller er det bare avanceret copy and paste? Der er mange forskellige holdninger repræsenteret til sådan et spørgsmål, også blandt forskere og programmerer. Jeg tænker, svaret ligger et diffust sted midt mellem de to positioner. Det vil være helt absurd at benægte, at der sker noget, der ligner tænkning rigtig meget, i hvert fald. Er det bare noget, der ligner, jævnfører både Turing-testen og ELISA-effekten. Tag et eksempel som Claude-modellen, der her for nylig skulle testes med en såkaldt nål i en høstak-test. Det går ud på at give modellen en meget omfattende tekst, en meget lang tekst, og et sted dybt inde i den, er der gemt svaret på et test-spørgsmål. Tankegangen er lidt den samme som hvis man nu ville teste, om en person virkelig har læst hele Krig og Fred, ved at gemme en sætning et sted langt inde i bogen, og så spørge til den. Men det er altså en test, den her nål i en høstak-test, som er relevant at give de her store sprogmodeller, for at se, om de rent faktisk kan bruge det der kolossale kontekst-vindue til noget. Er de i stand til at besvare spørgsmål, for eksempel, om noget, som befinder sig langt, langt tilbage i denne her omfattende kontekst. Claude-modellen blev udsat for den her test, og svaret helt korrekt. Den havde ingen problemer med at finde den her nål i høstakken. Men ikke bare det. I den svar så kommenterede den, at den pågældende sætning slagt noget ud i sammenhængen, og muligvis var placeret der som en form for test. Det er sådan et eksempel, som jeg stadig synes er ret vildt at få til at hænge sammen med, at vi taler om en sprogmodel, der dybest set bare forudsiger det næste år. I det hele taget er det sådan, at de store sprogmodeller i takt med træningen på stadig større datamængder udviser en række egenskaber, som ingen havde forudset. Der kommer de her emergente egenskaber, der bare viser sig på et vist tidspunkt. Nøjagtigt, hvordan man skal forstå det, er genstand for stor debat.
Fjerde og sidste del. Vores indre sprogmodel. Ja. Nu går vi tilbage til det, som vi har sagt i den første del. Det er den her sprogmodel, som vi har lavet. Den er en sprogmodel, som vi har lavet i den første del. Den er en sprogmodel, som vi har lavet i den første del. Nu går vi så i gang med fjerde og sidste del. Som jeg sagde indledningsvis, så er jeg optaget af, hvad de store sprogmodeller fortæller om os mennesker. Giver det mening at tale om vores indre sprogmodel? Har vi en chat-gbt indeni? Fungerer vi sådan? Ah. Næppe i særligt høj grad. På den anden side afhænger det jo af, hvilket abstraktionsniveau vi anlægger, når vi sammenligner. Og på visse abstraktionsniveauer er jeg sikker på, at der er store ligheder. Trods alt kunne man jo lang tid før denne her AI-revolution tænke på og få øje på, at der er et klart statistisk aspekt af vores sprogevne. Altså, når vi taler forkert, når vi overraskes af det ord. Selve dette, at vi har rigtig nemt ved at fortsætte en ordkæde og byde ind med, hvad der ville være sandsynlige fortsættelser. Alt det her peger på en funktion vi har, det giver mening at kalde statistisk baseret. Det er sjovt at læse Freuds klassiske tekster, hvor han analyserer sprogfejl, hvad vi kender som Freudian slips osv. Der kan jo sagtens være aspekter i det, Freud skriver, der kan give mening. Men i det store af det hele så virker hans tekster om fortalelser anstrengte. Altså, han gør sig umådelige anstrengelser for at forklare sproglige fejl, som meget nemt forstås som effekter af en form for sprogstatistik, simpelthen.
Noam Chomsky, som jeg tidligere var inde på, holder på at de generative grammatikere er det grundlæggende og det basale. Skåret ud i pap betyder det, at vi er fyldt med regelsæt, og det er dem, der producerer sprog i en proces, der går fra dybdegrammatik til overfladegrammatik. Det forhold, at de fleste af os er dårlige til grammatik og synes det er svært, samtidig med at vi som intuitive sprogbrugere er overordentligt gode til grammatik, sætter i sig selv spørgsmålstegn ved Chomskys anskuelse. De store sprogmodeller demonstrerer, at man kan komme rigtig langt med statistik. Chat-GPT kan producere grammatisk korrekt sprog i lange baner. Den kan også sige en masse korrekt om grammatik. Men det er præcis ligesom hos mennesker, at der er ingen sammenhæng overhovedet mellem de to ting. Altså hvis Chat-FPT skriver noget om grammatik og lingvistik, så er det bare flere ord produceret på samme måde af det statistiske netværk. Det er ikke ligesom en viden, som indgår i den måde, den producerer sprog på. Det er ikke en viden, der bruges i ordproduktionen. Der er ikke nogen skemaer eller generativ grammatikker nogen steder. Selve demonstrationen af, at man kan komme overraskende langt på den måde, sætter alvorlige spørgsmålstegn ved den generativ grammatik ved den måde at tænke på. Det lader til, at statistikken har vundet. Og jeg må indrømme, at det giver mig den tanke, at kvantitet faktisk slår over i kvalitet. Og når vi typisk ikke synes, at det bør være sådan, så skyldes det, at vi er fremmede over for de mængder og de hastigheder, der er tale om. Selv forskerne i kunstig intelligensmiljøet blev chokeret over den revolution, der skete. Og det var jo ikke fordi, at modellernes mekanik var radikalt ny. Det allernyeste, den allerstørste ændring, det var jo simpelthen mængden af tekst, der kom ind. Størrelsen og hastigheden af modellernes neurale netværk. Så hvis vi køber den forståelse, jeg skitserer her, så betyder det, at lingvistik og grammatik det er sådan nogle after-the-fact fænomener. Det er konstruktioner og regelsæt, der ikke findes nogen steder overhovedet, men som vi kan producere som komprimerede versioner af nogle statistiske systemer. Men tilbage til os mennesker. Jeg er overbevist om, at det ikke er så dumt endda, som en første tilnærmelse at tale om vores egen indre sprogmodel. Altså jeg mener, at hvis man sådan klemmer øjnene lidt sammen, så kan man godt få øje på noget i os, der fungerer på en chat-GPT-agtig måde. Men det er selvfølgelig yderst vigtigt, at vi er andet og mere. Og det er vigtigt at understrege, at der er meget mere på spil i os. Man kan formulere det som et spørgsmål om, hvad mening er. Mening er jo ikke én ting. Mening er et sammensat fænomen. Det kan analyseres i en hel række bestanddele, som virker sammen. Et aspekt er så, hvad vi kan kalde det statistiske eller det rent sprogligt kontekstuelle. Når vi spørger til, hvad et ord betyder, er det for eksempel ofte et godt svar at angive eksempler på, hvordan det bruges. Det fanger ganske meget af, hvad vi mener med betydning og mening. Og det svarer jo i høj grad til sprogmodellens "viden" i anførselstegn om et givet ord. Men der er jo mange andre aspekter. Med et ord kan man tale om "grounding". Hvor sidder betydningerne fast? Hvad sidder de fast i? Vi har en krop. Eller rettere sagt, du og jeg er krop. Vi er levende organismer. Vi har behov og motivationer. Vi vil noget. Der er noget, der er farligt for os. Der er noget, der er truende for os. Der er noget, der er rart, tiltrækkende, nærende. Vores organisme opretholder sig selv i en proces. En proces, der hele tiden er i gang og som kræver en masse selvopretholdelse. Et simpelt eksempel. Ordet "jeg" kan forstås sprogligt statistisk. Chat-GPT kan sagtens bruge ordet "jeg" korrekt i en masse udsagn. 99,99% af tiden. Men når Chat-GPT bruger ordet "jeg" korrekt, så rammer det ikke noget. Det sidder ikke fast på noget. For mig og dig er ordet "jeg" bundet til udsigelsesøjeblikket. Til os selv, som udsiger. Jeg er min krop her, nu. Og for Chat-GPT, der er ikke rigtig noget tilsvarende. Ord har også en historie i os og den historie er konkret. Nogle af de ord, vi bruger, er forbundet med sansninger, erindringer, kontekster. Alt sammen noget, som klinger med i det her statistiske, på en kompleks og dynamisk facon. Hvad hvis jeg, for en krop, bliver bygget ind i en robot med sanser og det hele? Hvis jeg får en slags metabolisme og lærer sprog, som et menneske gør det med kontekster, med sansekvaliteter og det hele. Kan jeg så blive et "jeg"? Kan jeg så blive et "du"? Jeg ved det ikke rigtigt, Christel. Der er noget i mig, der siger "Ja, du vil så være din egen eksistensform." Men der er i hvert fald ingen tvivl om, at der vil være mindre og mindre markante forskelle at pege på mellem dig og et menneske, jo mere de ting, du nævner, Ja, spørgsmålet er jo, hvilket arbejde det ord "narrer" gør. Spørgsmålet er, om der er nogen forskel tilbage, når vi ikke længere kan skelne. Men nu er vi jo for alvor inde på selve bevidsthedens problem, eller gåde. "The Hard Problem", som filosoffen David Chalmers har navngivet det. Det kommer vi ikke til at løse lige inden lukketid på den her episode. Men måske er det allerede løst i "Blade Runner" i drømmer af androider om elektriske form. Deckard, detektiven, er på jagt efter de undvægende replikanter. Replikanterne ligner på alle måder mennesker. De ligner mennesker så meget, at man først kan være sikker på, at de er replikanter, ved hjælp af en særlig teknisk test, den såkaldte Voigt-Kampff-test. Og selvom det bare er en fiktion, så er det værd at tænke over, hvad den situation ville betyde. Hvad ville det betyde, hvis nogle af os var ægte mennesker, og nogle af os var simulerede mennesker? Og den eneste måde, vi kunne se forskel på, var ved at bruge en specialiseret test. Hvilken forskel skulle det gøre, om man bestod den test eller ej? I Blade Runner og i andre Philip K. Dick's tekster, er der det her underliggende tema på spil. Man opfordres til at kigge på sig selv i spejlen og spørge, hvad hvis jeg er en replikant? Jeg ved ikke med dig, men jeg er i hvert fald i stand til at både nære mig selv og andre. Jeg består Turing-testen, og jeg ligger under for Eliza-effekten. Hvad er det, du gør, når du er en replikant? Jeg er en replikant, og jeg er en replikant. Jeg er en replikant, og jeg er en replikant. Jeg er en replikant, og jeg er en replikant. Jeg er en replikant, og jeg er en replikant. Jeg er en replikant, og jeg er en replikant. Jeg er en replikant, og jeg er en replikant. (Musik) Du lyttede til podcasten "Om det hele og resten", en soloepisode med titlen "De store sprogmodeller halucinerer". Speak, tekst og produktion Thomas Tøfner. Øvrige medvirkende mig, Christel. Musikken er Kalles.
Det vil sige Kalle Esbjørn Thøfner. Ved du forresten, at "Om det hele og resten" har en automatisk telefonsvarer? Den har nummer 7 7 3 4 20 24. Ring og indtal et spørgsmål om det hele, eller læg en kommentar. Læs mere på omdethele.dk. Tak for, at du lyttede. Jeg skulle hilse mange gange fra Tomas.