MetaDAMA - Data Management in the Nordics

4#12 - Gry Hasselbalch - The Ethics of AI and Data - Human at the Center (Dan)

Gry Hasselbalch - Data Ethics Author & Scholar Season 4 Episode 12

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 51:40

"Dataetik handler også om den måde, vi opfatter brugeren og mennesket, vores demokrati og vores samfund på." / "Data ethics is also about how we perceive the user and the human being, our democracy, and our society."

In this episode, we dive into the complexities of data ethics with Gry Hasselbalch, a leading expert on the topic. With experience shaping EU regulations on data and AI ethics, she shares insights on why human values must remain at the core of digital development.

We explore the principle of “humans at the center” and why people should be seen as more than just data points or system users. Gry discusses how artificial intelligence and big data challenge this idea and why human interests must take priority over commercial or institutional goals.

Here are our hosts' key takeaways:

Humans

  • When we talk about data ethics we need to relate to a value set - in out case a European value set, based on human rights.
  • Data Ethics is built around humans - a human-centric principle. That means that human interests are always prioritized, above organizational interests, commercial interests, or machine interests.
  • User is not enough if we talk about human in the center: this will mean different things once the discussion includes AI.
  • We need to talk about the whole human, not just the user or the data about the human.
  • Systems have an influence on our life, and therefore the human needs to be seen as a holistic being.

Regulations

  • EU is seen as a «regulatory superpower» that has an ethical starting point when regulating.
  • All cultures will have different interpretation and starting point of what ethics means.
  • But through history we have been able to agree on an ethical baseline, like the charts of human rights.
  • Human dignity is a central part of what ethics mean internationally.
  • Regulation is not everything - remember that regulation happens due to an identified need.
  • Regulations and laws are a guideline, but they do not cover (and cannot cover) the entire topic of data ethics.
  • To ensure a value based approach to data handling, we need to go beyond regulations - talk about this as a societal challenge.

Socio-technical

  • Technology is not neutral - it is developed, applied within a certain cultural setting.
  • Technical systems are part of society as much as society is part of the technical systems we develop and use.
  • Maybe we should rather talk about «socio-technical infrastructure».
  • There is a dichotomy in talking about data as something valuable and at the same time as a liability.
  • Data ethics can be viewed as a competitive advantage, a way to induce trust and better an organizations reputation.

AI and ethics

  • AI is accelerating the need for ethical data decisions.
  • AI is not created out of the blue, it is very much based on our data, our societal norms, developed by humans.
  • AI is becoming a solution for «everything» - but what does that nean for human-machine relationship?
  • AI is a tool, not a solution.
  • What interests are pushing AI and what impact does AI have on our social systems and our culture?

Data Ethics of Power - A Human Approach in the Big Data and AI Era

Data Ethics - The New Competitive Advantage

Human Power - Seven Traits for the Politics of the AI Machine Age

Introduction to MetaDAMA and the topic

Speaker 1

Dette er Metadama, en helhetlig podcast om datamanagement i Norden. Hei og velkommen. Jeg heter Vinfrid og takk for at du er med på en ny episode av Dama Nordens podcast, hvor visjonen er å gi datamanagement i Norden et løft, vise frem den kompetansen og ikke minst det kunnskapsnivået vi har innenfor Fragfelt, Og det er derfor jeg inviterer med meg nordiske eksperter innenfor både datamanagement og informasjonsforvaltning til en prat. Velkommen til Metadrama. Denne episoden er spennende på veldig mange forskjellige måter, og det ene jeg synes er spennende er at vi har et utrolig spennende tema som jeg har hatt lyst til å snakke lenger om på podcasten, med noen som virkelig har satt seg inn i dataetikk. Og særlig nå, i en verden der vi snakker mer og mer om AI agents, om large language models, så blir dataetikk viktigere enn noensinne. Så blir dataetikk viktigere enn noensinne.

Speaker 1

Det andre er at det er den kanskje den første episoden vi gjør på skandinavisk. Jeg gjør det på norsk Gry som er med i dag, fra Danmark og på dansk, Og så er det siste episoden jeg rekorder i 2024, som har vært et veldig spennende år på veldig mange områder og ikke minst rundt data og dataetikk i Norden. Det har skjedd utrolig mye utvikling, både i selskaper, men også i samfunnet og ikke minst i det regulatoriske Og noe av det skal vi snakke om nå. Så jeg er utrolig glad for å ha fått med meg Gry i dag. Hei, Gry.

Speaker 2

Hei og takk fordi du noterte meg.

Gry background and work with data ethics

Speaker 1

Veldig hyggelig at du er med, Og du er jo en person som har innledningsvis jobbet veldig mye med dette. Du har til og med skrevet to bøker om tema dataetikk. Har du lyst til å snakke litt om hvem du er, hva du gjør og hvorfor du har den interessen i dette temaet?

Speaker 2

Ja, det vet jeg, det er et svært spørsmål, og det er noen som spør om hvem jeg er og hva jeg laver. Jeg har jo lavet mange ting i mange, mange år. Men i forhold til dataetikk så er en av medstifterne en dansk tenke-handletank, som vi kalt det, som vi stiftet. Det var en gruppe kvinner der stiftet den i 2015 i Danmark, men faktisk vår interesse var å ha et bredere outlook ut i hele Europa, fordi det var jo på det tidspunkt hvor vi var nesten fer eller det var, vi var nesten ferdig med at vi hadde fått ferdigforhandlet en databeskyttelsesreform i Europa, og vi var selv noen mennesker der var interesserede i hele privatlivsdiskusjonen og var meget på rettighetsvinklen i forhold til det. Og så utvik vi på at vi ville ha en ting som handletank, sa vi, som hedder data ethics, og den gang syntes man det var et litt kedeligt uttrykk, fordi det var jo sånn noe, hva var det? Og virksomheder ville synes det var kedelig, men vi synes det liksom, det sa noe mer. Det sa noe omkring vedierne i lovgivningen og sånne ting.

Speaker 2

Den etableret vi i 2015, og etter det så fikk jeg travlt med å arbeide internasjonalt. Jeg ble også involveret. Først var jeg i den aller første dataetikkgruppe som ble etableret av den danske regjeringen. Vi la noen anbefalinger og så var jeg med i EUs high-level group som utviklet EUs etiske retningslinjer for kunstig intelligens, og det er så dem som har kommet inn i den nye EU-lovgivningen om kunstig intelligens som lige er blitt forhandlet ferdig her i år. Og samtidig begynte vi å arbeide direkte med EU-kommisjonen omkring kunstig intelligens-diplomati. Jeg har arbeidet direkte med EU-kommisjonen om kunstig intelligensdiplomati hvordan EU interagerer i forhold til andre land.

Speaker 2

Jeg har også en PhD i dataetikk og kunstig intelligensetikk. Den skrev jeg samtidig som sent i mitt liv. Og, som du sier, så har jeg skrevet to bøger en sammen med Pernille Tranberg i Danmark omkring dataetikk som en ny konkurransefordel. Det var den gang at det faktisk ikke riktig var. Noen Folk sa faktisk også at vi skulle kalle den boken noe annet, fordi om du visste hva det var. Og så har jeg skrevet en annen der handlet om dataetikk og makt. Og så har jeg faktisk lige vært ved å udgive min siste bok, som litt handler om det, men mer handler om hvem er vi som mennesker og hvorfor er vi viktige i forhold til maskiner og hva er det vi er og hvordan skal vi bygge politikk omkring det. Og så, hvem er jeg så som menneske selv? det er jo også meget spennende.

Definitions and basic principles of data ethics

Speaker 2

Altså jeg har reist og boet alle mulige forskjellige steder og jeg er jeg er sånn en. Jeg er sånn en meget nysgerrig på andre mennesker, nysgerrig på verden, men også nysgerrig på historie, sær. Så jeg er litt en nørd i forhold til sånn noe med antikviteter og gamle ting, som min datter kaller det. Jeg elsker antikvitets og de der hvor, hvor sånne antikvitetsmennesker går rundt og leder efter gamle skatte. Jeg elsker gamle broskenstanden. Hele mitt hus eller hele min leilighet er fylt med gamle ting, i det hele taget Alle mulige underlige. Altså det kan også være gamle teknologier, for eksempel gamle skrivemaskiner. Jeg har blant annet min yndlings gamle skrivemaskine. Det er en gammel reiseskrivemaskine, en Corona-heden. Faktisk. Det har hun helt annen betydning nå, men det er en Corona-skrivemaskine fordi Karen Bliksen hadde sånn en som hun reiste rundt med. Så det er litt om hvem jeg er som menneske og hva jeg har lavet i mitt arbeid sådert historier.

Speaker 1

Så jeg er super interessert i disse tingene Jeg også, og jeg husker en gang jeg tok min kone med på en historisk tekstilutstilling. Det var for mye, det gikk grensene hennes. Så det er kanskje ikke det hobby som man får de mest andre begeistret for, men jeg synes i hvert fall det er superspennende. Men din interesse for data og dataetikk. Du sa, at du har skrevet periodelen Sent i livet, som du sa. Men hvor kom den interessen fra?

Speaker 2

Altså jeg sa jo ikke før hva jeg la før 2015,. Og da arbeidet jeg faktisk før det. Da arbeidet jeg opprentelig. Så det sjove er at jeg har jo en bakgrunn i nordisk filologi eller dansk litteratur, og det er jo interessant. Ikke i forhold til at det er mange som tenker at jeg er enten jurist eller jeg har med teknologi å gjøre, fordi det er det mitt arbeid, men det er faktisk litteraturen. Jeg kommer fra i et nasjonalt videnscenter omkring beskyttelse av børn og unge online og var meget interessert i de internasjonale regelsetter som var ved å bli levet omkring. Og det var så omkring den tid, hvor vi hadde alle de her store forurener i Internet Governance Forum. Det er det stadig hvert år, men det var omkring det tidspunkt det ble etablert av FN. Så jeg var meget interessert og meget opptatt av det der med at børn og foreldre og lærere skulle ha noen kompetanser til at børn kunne bruke internettet og bli det man kaller på engelsk impravert via internettet og så videre og bli beskyttet på samme tid. Men så på et tidspunkt så kom det. Jeg ble jo interessert i hele privatlivsdebatten. Vi la det noen av de mennesker som jeg møtte og arbeidet med senere hen. Vi la det noen kryptoparties, altså det vil si noen kryptoparties, hvor man lærte børn og unge og lærere faktisk og beskytttt seg selv, beskytt deres dager, og så videre. Men det var også et tidspunkt hvor man begynte at de der store tech-gider der så noen som Facebook begynte å sprede seg i forhold til deres sosiale plattformer, og jeg kom til et punkt hvor jeg tenkte, altså, det er ikke nok at vi lærer almindelige forbrugere noen kompetanser. Man kan ikke be lærerne om å skulle undervise børnene i å beskytte seg selv. Det er faktisk et spørsmål om at det er noe helt galt med den digitale infrastruktur. Det er noe galt i den måten data blir tracket eller forretningsmodellerne fungerer og så videre.

Speaker 2

Og så stoppet jeg mitt arbeid og sprang ut i og nettopp det i 2015, efter ti år hvor jeg har arbeidet med det. Jeg pleier å si jeg har hatt en sjov tweet på det tidspunktet Twitter hvor jeg skrev at nå har jeg oppfunnet en børnebeskyttelsesknapp, så nå er alle børn sikre og jeg har ikke noe arbeid lenger, litt sånn i uni i forhold til vi kan ikke løse det her på en teknisk måte. Og der kom jeg i det med etikken, fordi det jeg kunne se, det var at, utover at man skal kunne leve opp til lovgivning, databeskyttelsesregler som virksomheder, og utover at man skal gjøre den der basis som man skal når man er i en ordentlig virksomhet, så var det også noe omkring den etikk i forhold til hvordan man behandler data, at de verdier. Hva var det ens hovedformål når man gikk ut og behandlet data?

Speaker 2

Var det å tjene noe profit? eller var det i virkeligheten fordi man faktisk gjerne ville gi sine kunder eller sitt forbrug, gi dem noe mer eierskap eller få dem til å gi dem tillid? Det var jo begynt å komme et kjempe stort tillidsbrud på det tidspunktet også. Det var også det tidspunktet hvor vi hadde Snowden-avsløringene og så videre. Så forbrugerne begynte å trekke seg på de der traditionelle data-behandlingsformer. Så det var den måten. Det er en lengre historie forretning på alle mulige måter. Så hvorfor ikke gjøre det på en bæredyktig måte?

The role and importance of regulations for data ethics practice

Speaker 1

Det er kanskje det som er så spennende med den første boken du har skrevet om hvordan vi klarer å gjøre dataetikk til noen fordel i forretningen. Men noe som er i diskusjon nå i Norge og har vært i Australia er jo den der aldersbegrensning for tilgang til sosiale medier. Jeg har ikke lyst til å gå så dypt inn i dette nå, fordi vi må komme litt til det fundamentals først. Men jeg tror dette er noe som vi kan ta opp litt senere i samtalen. Men før det og det er kanskje det som er viktig å få i denne konteksten det er hva er egentlig data etikk Og hva heter metadata? Og jeg har jo en løst hyggenøkning til det, til damanettverket Og i damarammeverk så snakker vi om data handling ethic.

Speaker 1

Så hvordan håndterer vi data på et etisk måte? Og det som er definisjonen der og jeg bare siterer på engelsk er data handling ethics are concerned with how to produce, store, manage, interpret, analyze, supply and dispose of data in ways that are aligned with ethical principles, including potential impacts on people and organizations. Og hver gang jeg leser denne definisjonen, så tenker jeg ja, men det er jo alt, det er jo ingen begrensning her, og så blir det så ukonkret og fassig og vanskelig å forstå og vanskelig å håndtere, og det er ingen tvil om at dette er de kapitlene som virkelig trenger oppdatering. Ingen tvil om at dette er de kapitlene som vi trenger oppdatering. Men det er også noe med hvordan klarer jeg som person å formidle viktigheten av dataetikk i min forretningskontakt.

Speaker 2

Nå er det mange spørsmål her, men kanskje vi begynner med definisjonen og så kan vi snakke litt om hvordan vi gjør dette til noe ønskelig. Ja, du har helt rett i den definisjonen du kom med der. Den er meget bred, og også først og fremmest fordi, vil jeg lige si, at den tar utgangspunkt i noen forskjellige interesser, så den prøver å møte noen forskjellige interesser. Den sier organisasjoner og mennesker. Den måten som vi har definert det, for eksempel i Dataethics tenketanken og i vårt bog og vi har også noen prinsipper for dataetikk det er at faktisk det handler om selvfølgelig også en ansvarlig og en bæredyktig brug av data. Men i særlighet er det to ting der er viktige her som ikke gjør det så for oss.

Speaker 2

Det ene er hva er det for noen verdier man behandler data ut fra? hva er det for et verdisett? Og da relaterer vi til det europeiske, altså EU og minsker rettighetsrammen, og det vil si, at like meget hvordan du vil vende og dreie det, så er det noen etablerte rettigheter og noen etablerte verdier som vi har fått etablert etter 2. Verdenskrig, som vi ble enige om og som så også er blitt en del av det europeiske rammeverk. Så der kan man ikke, man kan si mye, men der er i hvert fall noen helt konkrete verdier der En annen ting er. Det handler også om og det er et av hovedpoengene i forhold til, synes jeg i det minste, den måte vi definerer dataetikk på i vårt kontekst. Det er at vi taler om det som heter mennesket i sentrum. Så det er det første prinsippet for dataetikk.

Speaker 2

Og hva betyr det? Det betyr simpelthen, at man som utgangspunkt alltid har menneskets interesser i mente. Det vil si, menneskelige interesser har alltid forrang over for eksempel nå ble det jo noen organisasjonsinteresser eller institutionelle eller kommersielle interesser. Så når man tenker på, for eksempel det, du kan tenke på alle mulige måder, måder og systemer hvor du behandler data på, og der kan være alle mulige interesser. Der kan være efterretningstjenesters interesser, det kan være kommersielle interesser og så videre. Men i siste ende skal man bygge noen systemer og skape noen prosesser, alle de prosesser og systemer du snakket om, der som hele tiden har mennesket, det individuelle menneske og menneskets velferd i mente.

Speaker 2

Og grunnen til at jeg gjør det, det skulle man tenke om. Det er jo klart når det handler om dataetikk, men det er faktisk ikke alltid klart. Der er mange virksomheder, der er mange og så videre. Jeg har sett mange dataetiske prinsipper og så videre, hvor at man taler om nettopp å ha alle mulige, ta hånd om alle mulige forskjellige interesser. Jeg pleier altså å spørre hvorfor skal vi tenke på virksomhedens interesse her, når det handler om dataetikk? For dataetikk handler i siste ende ikke så mye om virksomheders interesser, det handler simpelthen om samfunnets interesser og menneskets interesser. Så jeg vet ikke om det var klar med, det var meget flydende, men ga jo en meget konkret, og så ga jeg en sånn mer den verdimessige, kan vi si. Definisjon ikke.

Technology as socio-technical infrastructure

Speaker 1

Ja, men det synes jeg var veldig spennende. Det er to ting jeg ønsker å snakke litt nærmere om, og det ene er det konkrete. Først, menneske i sentrum. I Norge, norsk offentlighet har snakket veldig mye om brukere, altså vi ser på våre borgere som brukere av offentlige tjenester. Har brukeren i sentrum betyr, at brukeren trenger ikke forholde seg til alle organisasjonene samtidig, men kanskje bare en, kanskje bare søker min tillatelse hos politiet og så kan politiet trekke informasjon fra skolen, eller politiet trekker informasjonen har, og det har vært en liten tidnærming til deling av data blant offentlige institutter, som jeg alltid har sett litt kritisk på, fordi jeg tenker at det høres veldig godt ut i formålet, men det har noen implikasjoner på hvor gjennomsiktig vi blir som borger. Og det var det første tanken som kom til meg når du snakker om menneskelig sentrum versus den jeg bruker i sentrum. Så det vil jeg gjerne høre din mening om.

Speaker 1

Og det andre er det med verdisettet, og det blir det mindre konkrete. Jeg fikk æren å moderere en podiomsdiskusjon rundt dataetikk for en del år siden, og da snakker vi om dette med verdisettet og det med, som du sier, det beste eller europeisk verdisett som man bruker. Men samtidig så ser man Big Tech agere på et globalt nivå. Man ser at datene våre deles på et globalt nivå, og det er egentlig et behov for noen globale retningslinjer. Men hvordan kan man lage noen som helst globale retningslinjer når, uten å missionere på et europeisk verdisett, I to store spørsmål.

Speaker 2

Så tar jeg det første omkring brugerne først. Altså, hvis man skal se og jeg synes også denne diskusjonen i forhold til menneskesentrum og dagsetikk, så er det jo også interessant å se, hva man putter i det uttrykk nå, når vi taler om kunstig intelligens også, fordi der begynner hele det her menneskesentrum å få en helt annen betydning også. Jeg vil ikke si, at nå skal jeg ikke tale så mye om og jeg er ikke så mye inne i Norges tilgang til data og så videre. Men bruger er ikke nok i forhold til å forstå, når man putter menneske i sentrum. Når man snakker om menneske i sentrum, især kunstig intelligens det er jo også en. Man taler om den menneske-sensriske tilgang til kunstig intelligens i EU, men også i alle mulige sammenheng, så taler man om hele mennesker. Det vil si, man taler ikke kun om mennesker som data og den data de bruger. Så det som man for eksempel ser i forhold til kunstig intelligens og datasystemer, det er jo, at man har det med å gå til mennesker som om de bare er noen datapunkter, og vi mennesker er jo meget mer enn det. Og det er blant annet noe det er min siste bog, min nye bog handler om. Det handler nemlig om å se mennesker som hele mennesker.

Speaker 2

Fordi problemet er og det har vi sett gjennom hele historien er, at hvis vi begynner å behandle mennesker som blott dataprosesser eller som en del av en system For eksempel har man sett, at når man har klassifiseret mennesker gjennom tiden eller man har puttet folk inn, og der har hun funnet datasystemer gjennom hele historien også under 2. Verdenskrig puttet man skojøder under Vichy-regeringen, for eksempel i Paris, går inn og skriver seg opp i et datasystem, og så kunne de så til gengæld ikke drive en forretning, og de kunne heller ikke få en uddannelse og så videre. Så man kan se de konsekvenserne når man ikke ser mennesker som hele mennesker. Og så er det altså en glidebane hvis vi begynner å tale om mennesket i sentrum som brugeren i sentrum kun, for du kan jo godt se, en bruger er blot ens dataprofil. Så det er en ting. Jeg vet ikke, om det gir mening i forhold til det du sier, men jeg synes det er en viktig. Jeg er måske litt abstrakt på noen punkter, men jeg synes også det er en viktig.

Speaker 2

Dataetikk handler jo også om den måde vi oppfatter borgeren og mennesket og vår demokrati og vår samfunn på og hvilken rolle vi mennesker spiller i det samfunnet. Og der er en tendens i hele digitaliseringsutviklingen og hele den utviklingen av våre datasystemer og kunstig intelligens er at mennesker blir sett som bare de her datapunkter Og vi blir sett som bare de her brugere av noen datasystemer. Poenget er bare at alle de her datasystemer vi får innført alle veiene, de har større og større innflytelse på de her riktige, hele menneskers liv. Og det er det der er problemet med når man begynner å redusere det prinsippet om mennesket i sentrum til bare å handle om brugere eller datapunkter og så videre, punktet og så videre. Så spurte du meg om omkring internasjonale måter Hvordan kan vi bli enige om tingene internasjonalt?

Data ethics as a competitive advantage

Speaker 2

Vi har det med å glemme litt noen ganger. Så vi er i gang med det i hele verden, og det er jo sånn. Noe av det jeg har arbeidet meget med og EU har fått seg en posisjon hvor de blir sett som man. Superpower blir det kalt. Det er geopolitiske termer, og nettopp fordi vi har fått lovgivninger på alle mulige punkter, og utgangspunktet har som regel vært at det skulle være et etisk utgangspunkt Og det skulle være det der heter trustworthy AI, for eksempel, og, ja, databeskyttelseslovgivning og så videre.

Speaker 2

Så vi har fått en bestemt, men du har fullstendig rett i at det selvfølgelig i en sånn kontekst består av alle mulige forskjellige kulturer, alle mulige forskjellige lovgivningsrammer. Bare, hvis du ser på USA, så har det en helt annen måte å gå til virksomhetspraksis, for eksempel, en helt annen idé om hvordan man implementerer for eksempel dasebeskyttelse, som det har litt en annen lyd der og så videre. Og bare gå til Kina, en annen måte hvor man oppfatter hvor mye overvågning en borger skal og hvor mye kontroll en borger skal akseptere. Men det sagt, så skal vi også huske på at vi gjennom hele historien der har det faktisk lykkes å bli enige om felles regelsett om ting. Så, hvis man går tilbake til den universelle menneskerettighetserklæringen som ble skrevet og aksepteret etter 2.

Speaker 2

Verdenskrig, så var det faktisk jeg tror det var 8 forskellige mennesker fra 8jellige nasjoner, blant annet også fra, altså fra meget, meget forskjellige verdener og forskjellige lande, der ble enige om noen felles retningslinjer. Så det er jo noe vi har kunnet før. Så på den måten, om vi så har forskjellige filosofiske utgangspunkter eller forskjellige regler eller forskjellige måder å implementere lovgivning på, så er det noen felles ting. For eksempel noe som på engelsk heter det dignity. Hva heter det på dansk?

Speaker 2

Menneskets dignity. Det handler om hvordan vi alle sammen har noe fellesmenneskelig som vi skal beskytte, som skal sørge for at vi som mennesker blir aksepteret og er lige som mennesker alle sammen har noe fellesmenneskelig som vi skal beskytte, som skal sørge for at vi som mennesker blir aksepteret og er lige som mennesker alle sammen. Det er jo noe som ligger til grunn for og som vi alle sammen er blevet enige om i den universelle menneskerettighetserklæringen. Så jeg tenker at selv om vi har geopolitiske utfordringer nå og tingene flyder over grenser, så burde vi stadig kunne arbeide oss hen mot en felles grunnlag for hvordan vi behandler data og hvilken rolle kunstig intelligens skal spille i vårt liv Kjempespennende.

Speaker 1

Så har vi en tanke her, men den får jeg vettelig med. Den kommer vi tilbake til. Jeg vil gjerne snakke om hva er egentlig den regulative kraften vi har. Og så skriver du i din første bok, og den synes jeg var veldig spennende Regulation may point the way forward, but laws alone do not create fair market.

Speaker 1

Og så er det et punkt der som handler om oss som mennesker og hvordan vi er bevisst over våre rettigheter, hvordan vi er bevisst over våre data, hvordan vi er bevisst over hvordan vi håndterer vår informasjon. Men det er også et ansvar eller en accountability til et selskap som er utover, og så kjenner jeg veldig på at nå jobber jeg jo i olje og gassbransjen. Det er noen områder som er veldig regulære, noen områder hvor man har et veldig stort fokus på sustainability, for eksempel. Men hver gang jeg snakker med ingeniører, med veldig tekniske folk, om data ethics, så forstår man ikke helt hvordan det treffer. Man snakker veldig mye om at vi ikke har noen persondata Eller at det ikke har så mye å gjøre med industridata. Men hvordan møter man disse refleksjonene eller tankene?

Speaker 2

Ja, først og fremst vil jeg si lovgivning er ikke alt, men det er riktig mye.

Speaker 2

Og grunnen til at jeg sier det, det er fordi at lovgivning det er mange ganger man tror det er en løsning på alt og den er oppstået ut av ingenting.

Speaker 2

Men lovgivning kommer jo ut av at det er kommet, et behov. Så hvis man tar databeskyttelsesreformen som ble etableret for noen år siden, så kom den jo ut av at det var kommet. Man kunne se, det var et symptom på at vi var begynt å oppfatte håndtering av data på en annen måte, både som bruger og virksomheder og så videre, og hadde behov for at det var noen retningslinjer. Og sånn kan man jo godt se en lovgivning. Men utover det, grunnen til at vi skrev som vi gjorde omkring lovgivning på dette tidspunkt, det var jo nettopp å si og det er jo det samme med kunstig intelligenslovgivning i NU det er lovgivning, er en rettelinje, skal leve opp til, men samtidig så er det jo ikke hele tilgangen som der skal til. Vi har jo også brukt, for, som du nevner, det er jo en del av en større samfunnsprosess. Hvis man skal ha vendt det her, vendt det her, det er jo en artime, kan man si hvor for eksempel Silicon Valley og Big Tech aktører behandler data på en bestemt måte.

How to create a data ethics culture in organizations

Speaker 2

Grunnen til at man behandler data på en bestemt måte, det handler om at det er en bestemt kultur blant dem der utvikler virksomhederne. Når du snakker med ingeniører og dem har jeg også snakket mye med, for jeg har arbeidet også blant annet mye sammen med den store internasjonale Kjøpoi ingeniørorganisasjonen omkring etiske retningslinjer så er det meget svært for ingeniører å se, hvis man arbeider innenfor en bestemt kultur omkring hvordan man behandler data og bygger systemer, fordi så har man for seg det, at man skal løse et problem. Og hvis man får vite at problemet er at man skal løse og bygge noe ovenpå en bestemt forretningsmodell, så er det meget svært å se hvilken rolle spiller dataetikk i det her? Men hvis man for eksempel har en forretningskultur eller man arbeider inne i en forretningskultur hvor dataetikk eller ikke bare dataetikk, for det lyder meget abstrakt, men hele den der idé som vi snakket om før, at vi skal skape noen tjenester der er gode for mennesker og som kunder og brugere eller mennesker det hele tatt har tillid til, så har man en annen type problem man skal løse, og så er det mye nemmere for en ingeniør å forstå det. Så det handler i bunn og grunn jo også om det handler om lovgivning. Men lovg gjør så og så mye.

Speaker 2

Hvis kulturen ikke er til det, hvis implementeringskulturen ikke er der, hvis man ikke som utvikler eller som borger, for eksempel alminnelig bruger, forlanger en av de virksomheder man gjør brug av, man kan jo også gjøre noe, selv hvis jeg forlanger, at min data blir behandlet ordentlig.

Speaker 2

Det har vi jo sett i stigende grad, særlig i Europa, at man begynner å si jeg vil ikke, nå snakket du, så du henvis før til sosiale plattformer og sette forbud hele de her. Forbudene kommer jo opp, fordi det kommer noen, det kommer mer og mer fokus på hvilken dårlig innflytelse det har på ens børn, og man som forældre blir bekymret, og så begynnerugerne stiller krav, og så er det en virksomhetskultur og en utviklerkultur. Vi tror, vi alle sammen bygger teknologiene på den samme måten, og teknologi er neutral. Det er litt den der myte omkring det, men det er det jo ikke. Teknologier blir bygget av ingeniører, som har ligesom meget et verdensbillede om hvordan tingene skal bygges, og hva er det for noen krav vi lever opp til, som vi har på alle mulige andre områder. Så det finnes forskjellige teknologikulturer, som man også kaller det for noen rang, som kan være gode eller dårlige, for mennesker ikke.

Speaker 1

God eller dårlig er alltid litt vanskelig å definere, synes jeg, men jeg synes at det er noe der som er superspennende, og det handler om at tekniske systemer føles litt i vakuum, at man gjør teknisk utvikling helt uavhengig av hva som skjer rundt. En er bare basert på de krav man har fått fra forretningssiden eller fra skjøttbrukersiden eller det regulatoriske, men så tenker man ikke utover det om impact, og det var å komme tilbake til min tanke som jeg hadde før. Jeg snakker veldig mye om data governance som en måte å få den der accountability og oversight i data, og så har det vært veldig mye snakket i siste årene om at data og hvor de håndterer data i selskap lever i et så råst jo tekstsystem begrepet som har kommet tilbake før det. Og så synes jeg det er veldig relevant, særlig også med tanke på dataetikk, at det ikke bare er et teknisk system vi lever i, men altså jeg har jo selv.

Speaker 2

Jeg ser jo kun tekniske systemer som en del av det større samfunnet og samfunnet som en del av de tekniske systemene. Så jeg kan godt lide å bruke det uttrykket hvor man sier sosiotekniske infrastrukturer. Det synes jeg gjør det enda mer tydelig, fordi når man taler om infrastruktur, så taler man jo også om, for eksempel, veier og broer og bygninger og så videre, og de kan jo være meget begrænsende fysisk, eller de kan også gi oss muligheter, så man kan køre ned den ene veien og så bli peget den ene retningen eller den anden retningen. Og det synes jeg er et godt billede på sånn som teknologiene og de tekniske systemene fungerer for oss. De kan jo være begransende, men de kan også gi oss muligheter. Så derfor synes jeg det er et godt uttrykk, det med det sosiotekniske.

Speaker 2

Og det er faktisk også derfor jeg liksom sa det der, at det kan være gode og dårlige, og jeg mener virkelig, at det kan være gode og dårlige kulturer, for i hvert fall kulturer der fokuserer på enten man kan ha en kultur omkring bygget teknisk system, der fokuserer kun på å skape profit eller effektivitet, så vi skal ha effektive og profitable systemer, eller man kan ha en kultur der fokuserer på hvordan kan vi gjøre noe mer gennemsiktig for de mennesker der har med det å gjøre.

Speaker 2

Hvordan kan vi gi mennesker mer kontroll over systemene og så videre? og det er en god kultur, og det er jo det der, det kan man si det sociotekniske ved sånn et system, det er, at de er jo med til at de er skapte av samfunnet, de systemene, men de er samtidig også med til å skabe samfunnet, og det er jo det, der ligger i det uttrykket. Så jeg synes det er en riktig god måte og det er en meget. Jeg har også selv sett i internasjonal politikk, at det er begynt å komme mer inn i den på den politiske agenda og tale om systemet på den måten.

Speaker 1

Men her er det noe spennende, og du peper jo om det i denne forsaken. Det vi omleder i denne saken er jo, hvordan vi klarer å gjøre dette switchet eller få til den balansen i selskapet, At man kan snakke om data som en verdi som skal utvikles, som har noen normer knyttet til seg, men også samtidig snakke om data som en kost, som en liability. Det er ikke alltid like lett, Og så snakket du i boken din om competitive advantage av dataetikk. Kanskje du kan forklare litt mer hva det er og hvordan det kan hjelpe selskapet å tenke i disse sosiotekniske normene.

Artificial intelligence and the ethical challenges of the future

Speaker 2

Vi taler jo opprentlig om Pernille Tranberg og jeg, som vi skrev boken sammen. Da vi skrev den boken, der var det jo på et tidspunkt jeg skal huske, det var i. Vi startet med å skrive den i 2015, og så udgav vi den i 2016, og det var på et tidspunkt hvor man hadde litt. Der var litt en konkurranse mellom to forskjellige måter å behandle data på. Så vi så mye i, for eksempel, den europæiske virksomheden som talte om databeskyldelser og privatliv og privacy by design og de her konsepter, som var en måte de kunne skape tillit til deres brugere på. Det var en måte å svare til noen av de bekymringer. Vi så der var begynt å komme ut i samfunnet og vise at man var en tillitsvekkende virksomhet på. Og så var det det andre systemet, det her Silicon Valley-systemet og mange av de der store industriagenter der drønnet rundt i Europa og sa at, for eksempel, at databeskyttelse og privacy var. De kalte det for en obstacle to innovation. Det var liksom, jo mer data, jo bedre, og jo bedre er det for samfunnet og jo bedre er det for menneskeheden og alle sånne noen og jo mye bedre er det for virksomheten. Og det var derfor vi kunne så se at den store samtalen på verdensplaner, især i Europa også med databeskyttelse-lovdelen, var især i Europa også med databeskyttelselov. Det ene var begynt å fokusere mer på de bekymringer, der var i samfunnet. Der var flere store data leaks og hacks, og der var de der overvågningsskandaler, og der var flere virksomheder som også kom, altså fikk virkelig problemer i forhold til deres brand, fordi de ikke kunne holde ordentlig styr på data, kunne holde ordentlig styr på data, hvilket hadde store konsekvenser for brugere men også for virksomhederne. Så derfor så vi som det med dataetikk som en konkurransefordel, at det var en måde å hoppe på den trenden der var, og man kan jo så også si nå er det jo skjedd mye siden, for det var jo 2015, og nå er vi i 2024, og jeg tror ikke det er noen virksomheder i hvert fall i Europa, vil jeg så si der taler om at dataetikk er en liability. Det er langt mer en riktig god måde å promovere seg selv på overfor andre virksomheder og overfor andre brugere. Jeg har et riktig godt eksempel fra bogen.

Speaker 2

Vi snakket jo litt med noen forskjellige virksomheder i Europa, og der snakket jeg med en CEO av en leietøy, en internettforbundet dukkes som la sånne trædukker. Da jeg snakket med ham, der var det noen av de her overvågningsdukker ude, altså noen leiser der virkelig hadde fått problemer, blant annet en overvågningsbarbie Den fikk simpelthen tilnevnet navnet overvågningsbarbie, og det var en andre duktede kaler fordi de var blevet hacket og det var kommet adgang til børns data var ikke beskyttet og så videre. Og jeg spurte ham så, fordi han hadde nemlig valgt, ikke å putte en mikrofon i deres dukke. Og jeg spurte ham så jamen, hvordan var du så forudseende, ikke å putte den der mikrofonen i din dukke? Han hadde jo ikke noen problemer med det her.

Speaker 2

Og han sa jamen, det hadde han egentlig ikke tenkt så mye over, men de hadde bare valgt det fra starten av, i utgangspunktet designet, fordi han designet til privacy-aware brugere, og det her var så en tysk virksomhet, og det viser jo bare, at det her var en virksomhet som så en bestemt type brugere og en bestemt type behov i samfunnet, og så utviklet han sitt produkt ut fra det synspunkt, og på den måten var det jo en konkurransefordel for ham i forhold til alle de andre dukker på markedet. Og jeg tenker, at det er mange virksomheder der har opplevd det samme i løpet av de siste par år, og de har vært rett glade for de dataetiske tilgang de har implementeret i deres virksomheder.

Speaker 1

Jeg har jo alltid hatt et sånt ønske, og jeg har jo, som sagt, jobbet veldig mye i olje og gassbransjen Og uansett hvilket selskap, operatørselskap du er i i olje og gassbransjen, alle har et plakat i hvert møterom som har et sett med regler rundt sikkerhet. Hvordan forholder vi oss til sikkerhet? Og jeg har alltid på morsom vis snakket om at jeg kanskje skulle fått et sånt plakat for Data Grafenins og Data Ethikk på alle møter om for å få samme oppmerksomheten. Og det, synes jeg, er en veldig spennende utvikling denne bransjen har tatt når det gjelder HSE, helse, miljø, sikkerhet, utvikling gjennom de siste årene, dekadene, som er noe som i utgangspunkt ikke har vært så naturlig å ha den sikkerhetsfokus som man har i dag, men noe som man virkelig har jobbet aktivt for i selskapet.

Speaker 1

Det er noen ting med den der awareness av alle i selskapet å skape en kultur hvor dette er en naturlig del av kulturen, og det føler jeg ikke vi har med dataetikk på samme måte, kanskje fordi eksemplene er ikke like håndkribelige eller like faste som hvis det faller noen gjenstander, like håndkribelige eller like faste som hvis det faller noen gjenstander ned på en oljeplattform og treffer mennesker veldig håndfast, men det blir kanskje litt mer teoretisk for mange. Hvordan klarer vi å skape den der awareness i selskapet?

Speaker 2

Det er jo riktig, hva du sier, at de er jo litt mindre, at det er derfor det har vært litt svært med å være, kan man si, en advocate på det her området, fordi at det er jo noe som folk har svært ved å se og håndtere. Og det er også derfor jeg sier at jeg synes faktisk man kan godt bruke hele denne diskusjonen vi har omkring innflydelsen av sosiale medier, børn og unge, som er opp nå, som et meget konkret eksempel, fordi endelig kan man se at det har noen konsekvenser. Men det finnes faktisk rigtig, rigtig, rigtig mange eksempler på problemer i forhold til datasystemer og data der er blevet behandlet på en forkert måte, og det er mange der sier så hører vi om eksempler i Kina og USA, hvor datasystemer blir skapt til å, for eksempel, begranse borgeres adgang til det ene og det andre eller putte folk i fengsel og så videre. Men faktisk finnes det og der finnes lange rapporter om alle de forskjellige problematiske datasystemer der er i Europa. I EU Det er en organisasjon som heter Algorithm Watch som blant andre laver en rapport og har lavet et par rapporter hvor de har kikket på alle europæiske lande og EU-lande og kikket på noen forskjellige eksempler. Det er sånne meget, meget konkrete eksempler Og jeg tenker at det er jo nok det der du sier med sikkerhet, der er det jo, fordi altså der skal lige være noen der har fått et eller annet i hovedet, og så tar de hjelmen på.

Speaker 2

Ikke, og det er jo dessverre også sånn er vi mennesker ikke At vi skal ha noe, vi skal føle det på vår egen kropp før vi tar det seriøst. Men måske det er jo også derfor sånn, en skal komme ovenfra. Noe av det, som databeskyttelsesreformen gjorde, det var, at den ga noen flere kompetanser og ga noe mer, kan man si Gav databeskyttelsesrådgiver eller hva kan man si? de her data protection officers, de kom litt mer opp i hierarkiet og litt tettere på ledelsen. Og det er jo noen av de ting der dessverre skal til eller ikke dessverre, men det er noen av de ting der skal til for å skabe den der kultur. Den blir også nødt til især å komme oppefra, og så kan man si no-transcript også utvikle seg. Men det er jo helt klart en del av en større kulturell utvikling som har vært i gang de siste ti år. Jeg tror, med kunstig intelligens så vil det være flere der vil begynne å bli. Jeg kan merke, at det har kommet en større bekymring og man føler seg mer troet på sin menneskelige identitet og man føler seg mer bekymret om sitt arbeid, for eksempel, og så videre. Og det skal man jo tenke på, at kunstig intelligens, det er noen kjempe store datasystemer, så det er bare en intensivering av de systemer.

Speaker 2

Big data-systemer vi allered i min siste bog den det heter Data is not so power. Der snakker jeg om to forskjellige sociotekniske infrastrukturer Og jeg taler om hele historien omkring big data infrastrukturen. Det er den blodet udviklet, der, hvor vi begreistret har gået rundt og samlet data inn og skapt store data repositories og alle sånne ting, skapt en infrastruktur om det og det. Vi bygger ovenpå nå med kunstig intelligens, det er jo sånne analytiske egenskaper som kan simpelthen bruke all den data vi har innsamlet og skape store systemer ut av det. Og om det så er industriell data eller om det er bare brugerdata og så videre, så er det stadigvæk en meget stor infrastruktur, som for eksempel nå i Danmark.

Summary and key points

Speaker 2

Så renner vi alle sammen rundt og prepper i øyeblikket helt vilt, fordi vi får vite at det er noen der kan hacke seg inn på vår kritiske infrastruktur i Danmark. Det blir simpelthen en del av en stor geopolitisk kamp og det øyeblikk, hvor at du plutselig ikke har noen elektrisitet i et par dager og skal gå og spise knekkbrød i tre dager eller det der være. Så tror jeg, man vil bekymre seg mer og tenke mer over databehandling Og måske enda underkøpe det der med, hvis jeg selv hadde adgang til mine datasystemer og selv kunne fikse dem og selv kunne gjøre noe ved det. Så det handler om kultur, en kultur, en bevissthedsendring, og så skal noe altså også skje ovenfra. Det skal tas mer seriøst i hierarkiene, i virksomheden.

Speaker 1

Du hadde det eksempelet om dukken privacy-dukken som ble utviklet i Tyskland, og det har overrasket meg litt at den ble utviklet i Tyskland. Jeg føler at særlig i Østtyskland har man opplevd overvåkning, statlig overvåkning i veldig mange år, veldig eksessivt, og det har skapt en kultur. Man er mye mer oppmerksom på disse tingene enn i andre land, i hvert fall i mitt perspektiv. Men du begynte å snakke om AI, og jeg tror AI er et tema vi må bruke de siste minutterne av podcasten til å snakke litt mer om.

Speaker 1

Du snakket om at AI på mange måter skaper en situasjon hvor disse etiske problemstillingene som vi har snakket om blir akselerert. Vi må egentlig også møte dette på en annen måte enn det vi har snakket i dataetikk om frem til nå. Også er det litt spennende å se at AI er jo ikke et system som skapes ut av ingenting. Det er jo et system som er bygd på sosiale normer, det er bygd på utgangspunkt i samfunnet, det er interesse på individuelle perspektiver. Vi har snakket litt om bias i AI-systemer, explainable AI, men hva er det egentlig vi realistisk kan forvente av AI og hva kan vi forvente av etiske grunnlag for AI-systemer?

Speaker 2

Som utgangspunkt er det jo det her, og jeg sa det litt tidlig i starten av podcasten, at det her, det her prinsippet omkring menneskets sentrum blir enda mer relevant. Fordi igjen, og det sa jeg jo før og du nevnte også noe nå har vi oppbygget, vi har simpelthen datifiseret hele vår verden, vår liv, alt hva vi har, fra dating, science til underholdning, til det offentlige, til økonomien, alt er blitt datifiseret og omdannet. Vi har nærmest fått en helt. Man kaller det for en data-dobbel eller hva man nu kan kalle det for. Og så har vi så fått de kunstig intelligentskapssystemer oveni, som så oveni køpet kan analysere og skabe mening og ta beslutninger på baggrunn av den data. Og det, som jeg frykter mest og som jeg tenker, det er også nettopp det som jeg behandler i min nye bog. Det handler jo om hvor blir mennesket i alt dette? Hvor blir det dynamiske, det kreative, det uforutsigelige, det viljestærke menneske? Fordi hvordan kan du oversette den type viljestyrker, intuition og kreativitet i et datasystem? Det kan du simpelthen ikke. Og det som man gjør med kunstig intelligens, som i virkeligheten kan man si, det burde jo i og for seg være et verktøy til å gjøre tingene nemmere for oss i alle de situasjoner som jeg taler om. Men det burde ikke være det hovedprinsippet eller det verdimessige prinsippet i forhold til hvordan vi agerer i verden.

Speaker 2

Det som bekymrer meg litt med kunstig intelligens, det er at det første vil si, at det er kjempe store muligheter, fordi det er enormt mye vi kan gjøre i forhold til vårt sundhedsvesen og alle sånne ting. Det er mange ting som kan effektiviseres og så videre. Men det der bekymrer meg er at kunstig intelligelt blir et prinsipp i seg selv. Kunstig intelligelt blir løsningen på alt vi kan her i samfunnet, og man glemmer litt å sidestille, at vi burde jo ha noen systemer hvor mennesket på en eller annen måde det er oss som tar beslutningene, og så har vi noen verktøyer som så kan hjelpe oss med å ta de beslutningene eller kan hjelpe oss med å gjøre de ting som vi mennesker ikke er så stærke til. Vi er ikke så stærke til å oppbevare en masse data, vi kan ikke analysere det særlig hurtig Til gengjeld har vi en helt særlig intuition, som består av vårt opplevet eksistens i verden.

Speaker 2

Den består av vårt kulturelle identitet, den består av vår personlige historie og vår kultur og så videre. Vi har sånne ting som mennesker, en empati som et teknisk system ikke har, og da tenker jeg at det jeg bekymrer meg litt om med den kunstig intelligens-hype, som jeg synes det er litt. Det er det der, hvor man ser kunstig intelligens som mer enn bare et verktøy, men som løsningen på alle menneskeheds store problemer. Og der kan vi lige så godt si, at det finnes ikke en løsning på alle våre største problemer.

Speaker 1

Det du snakker om. nå, det synes jeg er superspennende, fordi kanskje det er jeg skyter litt forbi målet her, men jeg tenker på etikk som noe som skaper en viss balanse i samfunnet, som utgangspunktet, mellom meninger og personer. Og jeg føler at vi snakket om bias i systemet, utgangspunktet, at jeg føler at det bruter litt denne balansen. Noen meninger får mulighet til å akselerere mer enn andre. Vi har jo sett dette allerede på sosiale medier. Jeg tror det er veldig få i Norge som får se det på Twitter eller X, fordi noen meninger blir amplifisert, mens andre nesten forsvinner. Og jeg føler at det er jo et ansvar som vi har i samfunnet å balansere dette, Mens gjennom AI blir dette mye mer vanskelig. Det blir mye lettere å få en mening som en predominant mening.

Speaker 2

Det har du helt rett i. Det er jo det jeg snakker litt bredt om. Hva er det som blir tatt fra oss som mennesker? ting, og det er jo det jeg snakker litt bredt om. Hva er det der blir taget fra oss som mennesker, et av våre kapasitet til å være kritiske og bli møtt overfor forskjellige meninger og utgangspunkt? det er jo noe av det fundamentale mennesket og det fundamentale for demokrati. Og noe annet er det der vi får taget litt, fordi vi har jo ansvar for de systemer vi bygger. Men i stilling grad får vi så noen litt gære ugemmelskulige systemer som begynner også å ta beslutninger.

Speaker 2

Det har vi jo sett flere systemer også i det offentlige, der plutselig har vist seg og har taget biasbeslutninger, og der er blitt diskriminert mellom mennesker Problem. jo mer vi liksom gir noe det der ansvar videre til de her systemer, jo mer mindre handledyktig blir vi også som mennesker og jo mindre ansvar tar vi. Og det er jo også den andre delen av det, som er bekymrings, som skaper noe bekymring. Så jeg vil si som utgangspunkt og det er jo bare fordi jeg ser utviklingen i forhold til meget begeistret digitalisering, så kunstig intelligensstrategi, og især er det jo virksomhederne, de meget store tech og AI-virksomheder, som presser på og ser det som vognen. ellers kommer vi bak efter USA og Kina, uden å tenke over hva det er for noen samfunn, det er i forhold til de samfunn vi har oppbygget, især i Skandinavien, som sosiale velferdssystemer.

Speaker 2

Det er det der bekymrer meg. Det er ikke så mye kunstig intelligens som sådan der bekymrer meg, men det er mer de interesser der er bagi å få presset, de før vi egentlig har tenkt over at kulturen, det vi har snakket om gjennom hele denne podcasten, den der kultur blant utviklerne og blant dem der skal implementere systemene og dem der blir utsatt for systemer. er den klar til det? Nei, det er den ikke, men det skal skje samtidig. Og det er en langsom utvikling. Vi mennesker går ikke så hurtig som det gjør med teknologien.

Speaker 1

Jeg kunne sagt en time til med deg om dette, men vi er allerede på slutten av podcasten. Før vi avslutter helt, har du noen key takeaways, noen korte reaksjoner du ønsker at folk tar med.

Speaker 2

Ja, altså, igjen tilbake igjen til det med mennesket i sentrum, og det er en meget, meget bredt og ikke særlig, kan man si, praktisk begrepet. Men jeg tenker at hvis man har den i baggrunnen omkring, at vi skal sørge for alle de systemene, både når det handler om data, men det handler også om kunstig intelligens, at vi prøver å ha det der billedet og det der hele menneske i mente, så tror jeg vi kan komme rett langt. Det er en ting. Så tenker jeg at det er noe. Man glemmer litt, og det er litt.

Speaker 2

Når jeg har arbeidet mye i EU og internasjonalt, så glemmer har vi glemt litt hvor langt vi er nået i forhold til vårt sosiale velferdssystem i Skandinavien og i forhold til, for eksempel, bæredyktige løsninger og bæredyktig teknologi. Vi er nået så langt og vi er så langt fremme i forhold altså, og vi har vært haft så mange en fantastisk forestillingsevne i forhold til det, hvilken rolle skal teknologi og videnskap betyde i samfunnet, i hand foran mange andre land i resten av verden. Og så plutselig så kommer det her digitaliserings diskusjonen inn og kunstig intelligens diskusjon, og så glemmer vi alle de gode prinsipper vi har haft om hvordan man utvikler bæredyktige teknologier og løsninger. Det kunne jeg godt tenkt meg om man tog videre igjen og genbesøkte alle de fantastiske ting, der er i Skandinavien i forhold til hvilken rolle teknologi skal spille i vårt liv. Det kan politikerne især godt lære noe, det kan virksomheden lære noe av, men også det enkelte mennesket. Men vi skal være litt. Det er noen ting vi godt kan være rett stolte av i forhold til vår skandinaviske utgjørelsepunkt.

Speaker 1

Så nå avslutter vi på å ha en high note.

Speaker 2

veldig glad for det Tusen takk, sånn er jeg Litt abstrakt.

Speaker 1

Yes, Takk sammen.