MetaDAMA - Data Management in the Nordics

4#9 - Marte Kjelvik & Jørgen Brenne - Healthcare Data Management: Towards Standardization and Integration (Nor)

Marte Kjelvik & Jørgen Brenne - Norsk Folkehelse Institute Season 4 Episode 9

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 30:44

"Den største utfordringen, det viktigste å ta tak i, det er å standardisere på nasjonalt nivå. / The biggest challenge, the most important thing to address, is standardizing at the national level."

The healthcare industry is undergoing a significant transformation, driven by the need to modernize health registries and create a cohesive approach to data governance. At the heart of this transformation is the ambition to harness the power of data to improve decision-making, streamline processes, and enhance patient outcomes. Jørgen Brenne, as a technical project manager, and Marte Kjelvik’s team, have been instrumental in navigating the complexities of this change. Their insights shed light on the challenges and opportunities inherent in healthcare data modernization.

Here are my key takeaways:
Healthcare data and registry

  • Its important to navigate different requirements from different sources of authority.
  • To maintain comprehensive, secure, and well-managed data registries is a challenging task.
  • We need a national standardized language to create a common understanding of health data, what services we offer within healthcare and how they align.
  • Authorities need also to standardize requirements for code and systems.
  • National healthcare data registry needs to be more connected to the healthcare services, to understand data availability and data needs.

Competency

  • Data Governance and Data Management are the foundational needs the registry has recognized.
  • Dimensional Modeling was one of the first classes, they trained their data team on, to ensure this foundational competency.
  • If the technology you choose supports your methodology, your recruitment of new resources becomes easier, since you don’t need to get experts on that very methodology.

Models

  • User stories are a focus point and prioritized. Data Lineage (How data changed through different systems) is not the same as Data Provenience (Where is the datas origin). You need both to understand business logic and intent of collection) - User stories can help establish that link.
  • Understanding basic concepts and entities accounts for 80% of the work.
  • Conceptual models ensured to not reflect technical elements.
  • These models should be shareable to be a way to explain your services externally.
  • Could first provides an open basis to work from that can be seen as an opportunity.
  • There are many possibilities to ensure security, availability, and discoverability.
  • Digitalization in Norwegian public services has brought forth a set of common components, that agencies are encouraged to use across public administration.
  • Work based on experiences and exchange with others, while ensuring good documentation of processes.
  • Find standardized ways of building logical models, based on Data Contracts.
  • By using global business keys, you can ensure that you gain structured insight into the data that is transmitted.
  • Low Code tools generate generic code, based on the model to ensure effective distribution and storage of that data in the registry.
  • The logical model needs to capture the data needs of the users.
  • Data Vault 2.0 as a modeling tool to process new dats sources and adhering to a logical structure.
  • There is a discipline reference group established to ensure business alignment and verification of the models.
  • Data should be catalogued as soon as it enters the system to capture the accompanying logic.

Data Vault

  • Adaptable to change and able to coordinated different sources and methods.
  • It supports change of formats without the need to change code.
  • It makes parallel data processing possible at scale.
  • Yet due to the heterogeneity of data vault, you need some tool to mange.
Speaker 1

Dette er Metadama, en helhetlig podcast om datamanagement i Norden. Hei og velkommen. Jeg heter Vinfried og takk for at du er med på en ny episode av Dama Nordens podcast, hvor vi sjåner å gi datamanagement i Norden et løft, vise frem den kompetansen og, ikke minst, det kunnskapsnivået vi har innenfor Fragfelt, og det er derfor jeg inviterer med meg nordiske eksperter innenfor både datamanagement og informasjonsforvaltning til en prat. Velkommen tilbake til Metaderma, og som alltid er jeg superglad å ha en ny episode på Norsk. Og i dag skal vi snakke om helsedata, og jeg har fått med meg Marte Kjellvik og Jørgen Brenne, som begge to jobber i FOI Folkehelseinstituttet, og jeg hørte på presentasjonen begge to hadde i slutten av april 2024 i Stockholm på Data Innovation Summit. Det snakket om tema som jeg synes er kjempespennende, ikke bare for helsedata, men også for mange andre, og det er hvordan gjør man integrasjon, hvordan jobber man med å? som begge to så fint titulerte presentasjonen sin revolutionising health data integration og som begge to så fint titulerte presentasjonen sin Revolutionizing Health Data Integration.

Speaker 1

Så kjempespennende å ha dere med i dag. Velkommen, tusen takk for det. Integrasjon og interoperabilitet er kanskje noen av de områdene som er kontinuerlige under utvikling og det skjer veldig mye, ikke minst siden GNI-revolusjonen 2022. Men integrasjonsteknikker har endret seg også før det og egentlig kontinuerlig. Samtidig er det noe av det mest grunnleggende som vi har i hvordan vi organiserer oss rundt data i organisasjonene våre, og denne balansen mellom inkluder nye teknologier utvikle seg videre på den ene siden.

Speaker 1

På den andre siden, bygge opp et fundament og stå på den er ikke alltid like lett, og så er det mange leverandører på markedet, og det er kanskje det markedet innenfor data, hvor det er flest leverandører til stede, som også har en innflytelse på i hvilken retning markedet utvikler seg. Hvordan klarer man å holde oversikt i dette og hva er det egentlig man trenger? Og det er kanskje noen av de temaene vi skal snakke om i dag, men før det, marte og Jørgen, dere kan introdusere dere. Vi begynner med Marte.

Speaker 3

Først tusen takk for invitasjonen. Veldig hyggelig å delta. Har du hørt på denne podcasten og lære mye av hva andre også driver med? Navnet mitt er Marte Kjeldrik. Jeg er prosjektleder i FOI i avdeling Klinger for Pistre. Vi driver med en stor modernisering av registrene. Vi har oppdrag fra helseordningen med å utvide med nye områder. Så det er jeg prosjektleder for og det vil jeg helpe med.

Speaker 2

Jeg er Jørgen. Jeg er innledd som teknisk prosjektleder i prosjektet. Jeg har jobbet med data i 15 år. Jeg har hovedsakelig hatt veldig interesse for det med datavarhus og det å bruke data som et styringsverktøy og har fokusert på det Kjempespennende.

Speaker 1

Hva er det du gjør når du ikke jobber med data datavarhusindikasjon? Kanskje du, martha, hadde svar på det.

Speaker 3

Ja, jeg kan jo si noe på om at det er. Det er jo et krevende arbeid. Vi har holdt med Det å være prosjektleder. Det er både mye faglig Og klaring av det, det er mye kommunikasjon på ulike nivåer, det er mye som skjer og det er hektisk. Så for min del, så trives jeg godt Med å finne på noe annet Når jeg ikke er på jobb. Så det å trene og det å danse Zumba på fritida, det er noe vi gleder oss til i dag.

Speaker 1

Det høres veldig gøy ut. Har dere lyst til å snakke litt om hvordan dere begynte å komme inn i fagfeltet, hvor interessen og data kommer fra?

Speaker 3

For min del har jeg startet som analytiker i NPR og KPR Norsk pasientregister og kom nå på pasient og brukeregister i 2007 og jobbet med data opp igjennom i mange år som analytiker Og så ble jeg spurt i 2019 om å være produkteier for datavarerhus Og da kom jeg inn i en verden som var veldig interessant og det å tverbruke metodikk og verktøy for å standardisere, og også så jeg at det er betydning for datakvalen at man standardiserer, å bruke metodikk, og så at utfordringer lå egentlig i forkant av dette hårhuset. Det var ofte utfordringer med at man skulle sammenstille data. Det har vært ulike kilder, ulike produksjoner på veien og så skulle man sammenstille data i dette hårhuset Og så at utfordringer låde egentlig i forkant at det var behov for å standardisere hva begrepet er, for eksempel. Så det er noe interessen kommer mye gjennom det.

Speaker 1

Men kan jeg spørre deg, marte, med din erfaring og din bakgrunn, tenker du at standardisering innenfor data er på samme nivå som i andre områder, eller føler du, at vi henger litt bak når det gjelder sanitisering?

Speaker 3

Det er nok en stor utfordring innenfor helsedata og at det også er en kjent utfordring, som mange jobber med, og at det er mange aktører inne i bildet og at for eksempel, når man skal sammenstille data på tvers av kilder, som man skal sammenstille data på tvers av kilder, som man skal gjøre, Det finnes mange ulike registre. når man skal sammenstille med andre typer registre, og da er det, hvis man ikke har gruppierter i samme kodeverkene for eksempel, så er det jo håpløst, også å sammenstille til slutt. Så helsedata, det har man en lang vei å gå og det er noe man jobber med på tvers av flere enheter og aktører.

Speaker 1

Da har jeg jo tidligere i flere anledninger egentlig sagt, at et ønske med denne podcasten er å prøve å balansere, at uansett hvor mye erfaring man har innenfor fagfeltet, så skal man kunne ta med seg noe verdi ut av å løtte på en episode, og derfor er jeg egentlig veldig fornøyd med å ha både Marte og Jørgen her. Der kan vi både få de store rammene på plass, men også dypdykke litt inn i det tekniske. Du har allerede begynt litt i den retningen av store rammer, marte, martha, så kanskje du kan forklare litt mer om hvor står Folkehelsinstituttet? Hva er de utfordringene man ser? Gi oss en liten intro i deres situasjon.

Speaker 3

Jeg kunne først si litt om at vi fra 1. Januar 2024 så er vi som helseregister en del av Folkehelsinstituttet. Tidligere så var vi i helsedirektoratet og så ble det oppdraget fra helsedansvaretsdepartementet at man skulle samle registrene i folkehelseinstituttet. Så nå er vi i cirka ti registre, og det er jo en viktig vei å begynne på den standardiseringen og den samordningen og hente ut gevinstene ikke bare for et register eller for registrene, men også for tjenesten ut der som kanskje driver med noe av dobbelregistrering. Det kommer ulike krav fra ulike aktører som er kjempeviktige å samordne seg.

Speaker 3

Så man jobber også med en strategi i Folkehelsinstituttet på hvordan man skal samle registrene fremover og hva er målsetningene fremover. Så det er utfordring at vi er mange registre og ulike nivåer på hvilken grad man er modernisert, og noen har spørreskjema, mens vi har automatisert i utgangspunktet men også trenger å modernisere oss for at vi skal ha hyggeligere data og vi skal ha fra flere områder Det så vi blant annet gjennom pandemien at det er behov for ferske data for å følge med på hvor mange da var innlagt med covid, og det trenger man som gode styringsdata for å kunne planlegge tjenesten fremover.

Speaker 1

Jeg tenker jo i utgangspunktet, vi hadde en tidligere episode med Skatteetaten, der vi snakket litt om frøke registrer. Det er en enorm fordel å ha gode registredata, men det er også krevende på den ene siden å samle inn data, men på den andre siden også å like å holde sikkerhet i informasjonen på en god måte. Hvor ser du de største utfordringene med registret dere sitter på og forvalter?

Speaker 3

Den største utfordringen, den viktigste å ta tak i, sånn som det er nå, det er å standardisere på nasjonalt nivå, det å ha felles forståelse, for eksempel, av hva tjenesten er, hva helsetjenesten er, hvilke områder har man innenfor helsetjenesten, hvordan definerer man det. Det er et utgangspunkt for hvordan man kan ta inn data fra hvilke områder. Også det, at man har kodeverk som er standardisert, som er implementert i de ulike elektroniske pasientjournalene, som da sykehusene, kommunene og så videre tjenesten ut der har som system. Og det finnes det mange system i dag som også har behov for standardisering. Men det er igjen å være standardiserte krav fra myndighetene og et godt og tett samarbeid. Også det å være tett med helsetjenesten og den gode dialogen med helsetjenesten og hva som faktisk finnes av data nært arbeidsprosessene i helsekjøp. Så den nasjonale biten for å kunne få gode nasjonale tall og sammenstille data på tvers av enheter, på tvers av områder. Det å følge pasienten gjennom livet og gjennom ulike kjønnestene. Det er kjempeviktig for å få til gode data på sikt.

Speaker 1

Nå er du heldig å ha Jørgen med som teknisk prosjektleder, men hva tenker du på overordnet nivå? for å oppnå de målene dere har satt dere, hvilken kunnskap, hvilken kompetanse trenger dere?

Speaker 3

Nei, her bygger vi jo kompetanse parallelt mens vi går, og det vi ser at organisasjonen trenger er å bygge kompetanse på data governance, data management. Så det gjør vi parallelt. Vi har blant annet for et halvårs årstid tilbake så tok vi brett, ganske brett i organisasjonen at 45 stykker fikk grunnkurs i dimensjonsmodellering, for eksempel med Margie Ross fra USA. Og da er det for å få til det felles språket, det å forstå hverandre på tvers mellom ulike, både teknisk og faglig, som vi kaller det, da forretningsgjord hos oss kaller det faglig. Så det er viktig, det å ha felles forståelse, hva dette er for noen ting. Det er kjempeviktig i forhold til kompetanse, at alle blir med og lærer seg datamanagement og datavårene.

Speaker 1

Det synes jeg er litt spennende er at dere har et ganske uttalt fokus på datamodellering i det arbeidet, og det er dessverre færre enn man skulle tro som har det fokuset. Jeg ser det jo fordi at man i hvert fall i de siste ti år fra mitt perspektiv, har bygd inn datamodellering inn i applikasjoner, at det er veldig mulig å være en dørbasert, og så mister man litt den sammensatte fokusen på hva betyr det egentlig i rammene og i konteksten av mitt selskap og min organisasjon, for dere har prøvd å til dette problemet på en strategisk måte og en aktivitetsperspektiv. Vi skal begynne litt strategisk og snakke om hvordan dere har tenkt strategisk på å organisere data på tvers og ikke minst standardisere. Kanskje du kan fortelle litt, martha, om hvordan en slik strategi kan fjer ut.

Speaker 3

Ja, det baserer seg jo på nasjonale strategier, som er det viktige aller først, og at vi har en virksomhetsstrategi som er forankret i ledelsen. Kjempeviktig, det kommer fra ledelsen at vi skal gå i denne retningen og hvilken retning vi skal gå. Og så har vi jo etablert arbeidsprosesser, hvordan man skal jobbe med nye datasett. Da har vi etablert, at vi skal begynne med brukerhistoria aller først, og så skal vi prioriterer brukerhistorien. Det er ikke nødvendigvis brukerhistoria på et teknisk nivå, men for eksempel under pandemien økte vekta blant barn og unge. Så en brukerhistorie på noen datasetter vi skal inntrykke nå fra helsetasjon og skolehelsetjeneste er andel barn med FEDME, og hva er det da man trenger av begrepet og data for å kunne svare ut den brukerhistorien.

Speaker 3

Så vi begynner med brukerhistorien, så går vi videre til konseptuelle modeller. I denne sammenhengen snakker vi om modell for forretningsforståelse. Det er, hvilke begreper som definerer fagområdet, altså forretningsområdet, og da helsetjenesten, det som vi bruker å si her, det er 80 prosent av jobben, det er der arbeidet ligger, det å beskrive begrepet godt og relasjonene mellom dem, før man da har logiske modeller og datakontrakter som er transporten fra EPJ-en, altså fra systemene der ute og inn til oss, og så helheten at man får med seg da hvordan vi modellerer det i registret, den metodikken vi har valgt der, og også at man ser hvordan datene blir brukt i Power BI, hvordan dataen blir brukt i Power BI, hvordan strukturen er, at man får svart ut brukerhistorien. Så den arbeidsprosessen som vi har definert er den strategien for hvordan vi skal jobbe frem nye endringer på datasett.

Speaker 1

Jeg synes dette er veldig spennende når du snakker om fra brukerhistorie til konseptuelle modeller og knytter dette veldig tett inn mot den forretningsforståelsen. Kanskje du, jørgen, kan si noe om hvordan dette ser ut rent teknisk. Hvordan gjør dere det?

Speaker 2

De konseptuelle modellene har veldig fokus på å definere dem som forretningsobjekter og hvilken relasjon det er mellom dem for å identifisere på et ikke-teknisk nivå. Og de modellene er veldig viktige for å kunne diskutere med alle ulike aktører. Vi har jo juridiske krav, så vi må snakke med jurister, vi må snakke med fagpersonell som ikke har IT-kompetanse, og så skal også de konseptuelle modellene kunne brukes for utviklere når de videre skal fasilitere derene i datakontrakter og logiske modeller.

Speaker 1

Er det slik tenkt, at disse konseptuelle modellene er hva skal vi kalle det? proprietær, men tilpasser deres organisasjon, eller kan det også deles med andre eksternt?

Speaker 2

De er tiltenkt å kunne deles og de er tiltenkt for å kunne svare ut hvordan en tjeneste opererer og fungerer og hvem som er involvert i de tjenester som ytes i Alstekko. Veldig bra.

Speaker 1

Og så snakket vi litt om. I sammenheng med dette og i hvert fall den strategiske tilnærmingen, at dere har gått på en cloud-first tilnærming, Er dette en forutsetning for å få til den standardiseringen dere ønsker.

Speaker 2

Det er ikke en forutsetning, det ligger jo i de nasjonale retningslinjene. men jeg vil jo egentlig si, at det er heller en mulighet. Ved å bruke skyverktøy og alle de moderne applikasjonene, som nødvendigvis da ikke er tradisjonelt on-prem, så gir det oss masse, masse nye muligheter. Tidligere så har registret jobba med både data og utvikling i et lukket miljø på produksjonsdata, på sampledata, mens vi nå flytter alt arbeidet som gjøres i et skymiljø med alle de fine verktøyene på automatisert kode og sikkerhetspatching går automatisk alle de mulighetene man får i et sånt skymiljø.

Speaker 3

Vi følger nasjonale strategier og blant annet så sky først en bit av strategien, at vi skal kostnadseffektivt og at det skal være så langt det lar seg gjøre. Så er det å bruke sky først. Så der kjenner vi jo det her inn. Og så skal vi også ta i bruk felleskomponenter, altså både ta i bruk felleskomponenter, som andre har, og så dele, hvis vi har noen felles komponenter, og så i tillegg også er det det her med kjenestutsetting, det å ta i bruk verktøy, også viktig da i strategien. Så det å bruke verktøy vi har anskaffet, low-code utviklingsverktøy i denne sammenhengen, som støtter metodikken vi har valgt, er med å gjøre, at både billetter og åndbåde er nye folk. Vi trenger ikke kanskje det nødvendigste, den som er sterkest på metodikken, fordi at metodikken er med å støtte oss, at vi ikke får til å gjøre feil i verktøyene. Så det er en viktig bit av det når vi går videre med det her. Nå.

Speaker 1

Det igjen. Så det er en viktig bit av det når vi går videre med det her nå. Det er kjempespennende å se det. Når du snakker om på mange måter en sanitisering av infrastruktur, bruk av felleskomponenter, sanitisering av verktøy, så er vi jo egentlig midt i tema. Vi snakker om Og det er mange faktorer dere har tatt med å jobbe med med standardisering, og det er noe som kommer fra nasjonale retningslinjer, men noe har dere også valgt internt. Men det er en veldig opplagt spørsmål. Men, Jørgen, hvorfor er standardisering viktig?

Speaker 2

Spesielt må jeg tenke på at det er så mange aktører som vi skal få data fra. Så er vi avhengig av det for å kunne sammenstille. Det vi har valgt å fokusere på er erfaringer til andre. Så vi har sett mot hva som vanligvis gjøres og gått for metodikker, godt dokumenterte metodikker og miljøer, så vi kan lære og se hvordan andre har løst det. Også hvis de møter på noen problemer, så er det sånn synlig noen som har møtt folk med problemer før oss og vi kan lære av det. Og i Ufikkløs AB så er det jo. Hvis man følger retningslinjer, så er de der av en grunn. Vi slipper å tenke på eventuelle problemer som kan oppstå hvis vi bare følger den metoden, for den er gjennomtenkt og gjennomført av noen andre før oss. Derfor har jeg, som Martha snakket om, med de logkodeutviklingsverktøyene. Så har vi noe som standardiserer måten vi bygger opp det som vi kaller logiske modeller.

Speaker 2

Det er jo datakontrakten for innsendere som en strukturert format på hva de kan og ikke kan sende oss Og som vi har et sterkt fokus på, at det også skal være globale forretningsnøkler på. Så vi kan håndtere både nye innsyn til data, men også identifisere hvis vi mottar samme data flere ganger og kan versjonere det, den koden ut fra de lovkodeutgiftsøkningene. Den genereres jo automatisk, og det vil jo egentlig si, at når vi har tegnet opp en struktur som de er på nøyde med for et bestemt fagområde eller en bestemt tjeneste, så har vi generisk kode som publiserer det og gjør det klart for å modellere det i effektiv lagring i registret, samtidig som API-mottaket blir oppdatert og kontraktene blir gjenspillet ut mot eksterne aktører. Som skal sinne det?

Speaker 1

Så er det aktører som skal si det. Det er både en sanitisering, men også en etablering av gode metodikker og en best practice, som dere gjør. Også snakket vi litt om arbeidsprosessene og hvordan dere gjør dette og det, at dere har introdusert noen agile arbeidsprosesser, også for å sanitisere. Kan du fortelle litt mer om det, jørgen?

Speaker 2

Ja, som vi nevnte tidligere, så lager vi jo den logiske modellen, og da skal vi jo fange de dataene som vi ser vi har behov for for å svare ut de brukerhistoriene som vi har omtatt. Og så har vi et annet verktøy for modellering i det vi har valgt for APEC-tidblaring og den metodikken, som er DataVault 2.0. Der har vi også et sånt logkodverktøy for prosessering og skanning av nye kilder, en ny logisk modell ved en ny kilde og hvordan det APEC-tid skal lagres inn. Det verktøyet følger jo metodikken ganske så strengt, så vi får ikke brutt med den i det veiktøyet. Og veiktøyet vil også generere alle koder for prosessering og orkestrering av den koden.

Speaker 2

Videre, så er det en effektiv prosess, at vi også kan generere opp Kimball-modeller eller stjernemodeller, dimensjonsmodeller eller hva noe kaller det, så det også kan leveranse eller konsumentene vise, hva man ikke kan få til basert på den strukturen vi har satt og fortløpende kunne gjøre korrigeringer, før vi fortsetter å begynne å etterspørre data. Akkurat det steget der er litt viktig å gå gjennom, for bare basert på datafangsten er det litt vanskelig å tenke seg til, hvordan man skal bruke den. Men når man først begynner å tenke på hva man kan gruppere, på, hva man kan filtrere, på, hvordan man regner de forskjellige måltallene, så ser man kanskje, at man må gjøre noen små korrigeringer av datakamsten for å kunne svare ut dem godt, og det gjør vi fortløpende helt, at vi er fornøyde med en modell. Videre, så er jo de verktøyene veldig gode, hvis man trenger å korrigere eller utvide sine.

Speaker 1

Det er jo en agil arbeidsprosess, det er veldig skalerbart, så vi har legget det i krigger, så slutter både Bergtøy og metodikken å gjøre det effektivt. Det er superspennende, og det var mange ting vi kan snakke mer om. Jeg har veldig lyst til å komme tilbake til Data Vault litt senere i samtalen. Litt senere i samtalen, Men før det, og det er kanskje å prøve å ta et steg tilbake. Men den logikken dere fanger opp denne forretningslogikken. Hvordan klarer dere å sikre denne i modellene? Martha?

Speaker 3

Her er det absolutt nødvendig å snakke med. Vi har rett og slett faglig referansegruppe. Vi har snakke med helsetjenesten. Så vi har startet opp på de ulike områdene, og det er tre områder vi prøver ut i den retningen her. Da har vi etablert faglige referansegrupper, så vi snakker tett med tjenesten. Det er også det å snakke med og ha samarbeid med andre nasjonale aktører for standardisering er kjempeviktig for å få til det her sammen, At det er flere luft, flere plasser som må gjøres for å komme i rette.

Speaker 1

Veldig spennende Liker jeg, som vi innledningsvis snakket om, den der fokus på datamodellering Også i en tidligere episode og det kanskje får utfordre dere litt. Så hadde jeg en veldig god samtale om hva er egentlig verdien av datamodellering fremover. Klarer vi å sikre de behovene vi har på en annen måte enn å modellere? Modellerer vi egentlig bare for mennesker? Skikkelig, at mennesker forstår Eller har modellering også en verdi utover det? Og det var en veldig god samtale, der vi snakket om kanskje veien for å forstå logikken, forretningslogikken ligger i, for eksempel, vektordata baser fremover? Jeg er ikke helt sorgt for denne. Jeg ser både en verdi i modellering og for å skape forståelse for mennesker, men også maskiner. Har dere noen tanker rundt dette? Kanskje det ser litt sånn i klasskuller på datamodellering.

Speaker 3

Det første som slår meg i hvert fall, det er datakvalitet, det at det faktisk er, for det har jo vært litt sånn. Hva er datakvalitet egentlig? Men når man da jobber så godt med begrepet og relasjonen med dem i starten og at det følger gjennom hele løpet, man lytter i enden, hvor oppstod datene og hvordan har de gått gjennom, så at man faktisk har god datakvalitet og kan ta beslutninger der som faktisk hører Heine og er fra arbeidsprosessen er det dere har definert ut i helsekjærensen?

Speaker 1

Så det er det første som slår meg vekk, det er du inne på noe spennende også, som er ofte i de diskusjonene man har rundt datakatalog, for eksempel mistervitt. Man snakker veldig mye om at datakatalog kan hjelpe å etablere en data lineage, at man kan se på andringene i datene over tid eller over applikasjoner, men det er noe annet der som er opphavet av data, som data provenance, som er veldig tett knuttet mot det du snakket om tidligere når du snakket om referansegrupper og forretningslogikken, som du klarer å fange opp, og det er veldig mye verdi i å forstå hva det egentlig er som er kilden vi jobber med.

Speaker 3

Absolutt helt enig, og det er et viktig grunnlag for at man faktisk kan bruke dataen godt og svare ut, som vi snakket om i starten med å bruke historiene og svare ut dem, sånn at det henger sammen Også det, at vi da, sånn som hos oss, tar i bruk datakatalogen i starten av verdikjeden. Vi bruker den allerede, når vi definerer begrepet og relasjonen mellom dem og ikke sånn som det vanligvis gjøres, da at man har datakatalog i enden og definerer hvordan kom dataen ut der i enden, men da har man ikke sporingene nødvendigvis på hva som har skjedd i forkant. Så vi bruker nå datakatalogen i starten av løpet for dataen.

Speaker 1

Veldig bra, det er lov til å komme tilbake til Data Vault, ikke minst fordi jeg synes dette er kjempespennende, kanskje også fordi jeg føler at Data World er ikke like utbredt i Norden eller Skandinavia enn andre steder i verden. Men kanskje du, jørgen, kan fortelle litt om hvorfor Data World, hva bruker dere det til, og hvilken fordel og ulemper har dere sett?

Speaker 2

Ja, vi har jo en utfordring med at vi har så utrolig mange forskjellige fagområder vi skal samle data fra og veldig, veldig mange atører. Det er flere tusen. Det er en av fordelene med den datavalgmetodikken. Hvis du har veldig mange forskjellige skilder, veldig mange forskjellige strukturer som du skal samle i et register, så er den metodikken veldig god. Hvis man har et register av en datavarehus som er konstant under endring, så er metodikken veldig god. Den støtter at formatet endrer seg uten at du må restrukturere noe kode. Det hele viktige aspekt for oss var jo å ha et effektivt mottak av data, og da var vi jo inn ganske tidlig for at vi må ha en sånn insert-only-teknikk Og det støtter jo Data Vault.

Speaker 2

Så veldig mye parallelt prosessering av data gjør det mulig. Og jeg har egentlig kort oppsummert de årsakerne til at vi valgte å gå for Data Vault. Og så har du jo nå baksiden med Data Vault som gjør at du trenger noen verktøy på toppen, for det blir utrolig mange forskjellige tabeller. Det blir utrolig vanskelig å få sammenheng i det. Det er utrolig vanskelig å sikre at den koden du lager følgermetodikk, siden det blir så utrolig mange forskjellige tabeller og lastebrusdyrer. Men med verktøy på toppen som genererer kode, så er det veldig fint.

Speaker 1

Det var kanskje et veldig viktig poeng, det, at du trenger noe verktøy som faktisk støtter at du får den innsikten. Du er utettet Kjempespennende. Vi er dessverre allerede nærmere slutten av samtalen, men før vi avslutter, så gjør vi kanskje en liten øvelse, som vi gjerne gjør på slutten av episodene, det er å komme med en call to action eller en oppsummering fra samtalen. Kanskje du, marte, kan begynne og si litt om hva du tenker er viktig at folk tar med seg.

Speaker 3

Jeg tenker jo, det som er viktig, som vi har sett, er jo det, å ha en virksomhetsstrategi, altså det, å ha en strategi for hvor man skal hen, for å kunne gå dit i fellesskap og at man har en forankring. Og så er det det å ha en helhetlig tilnærming til hvordan man skal jobbe med det her, og at det handler om infrastruktur og plattform, det tekniske, men absolutt det viktigste er det her med konseptøy og modellering og beskriv begrepet og sammenhengene mellom dem. Gjør man det godt og det er som sagt, vi tenker det er 80 prosent av arbeidet så kommer det som kommer etterpå litt av seg selv, hvis man kan si det sånn.

Speaker 1

Veldig bra. Har du noe å tilføre?

Speaker 2

Jørgen, Ja, jeg synes det er kanskje viktig å ta med seg at man i arbeid med registrer og datavarhus har en god forståelse av skildene og en forståelse av data. man skal samle inn og ta seg tid til å bli kjent med dem før man etablerer datapremsen. Men egentlig da, ved å bevege seg litt saktere faktisk bli mer effektiv og treffe ut de behovene og de svarene man ønsker å rapportere på, Veldig bra.

Speaker 1

Tusen takk for samtalen.

Speaker 3

Selv takk. Takk for at du ble invitert og fikk være med.