Skip to main content

Sygehuslægen: fra en time til 85 sekunder

Et hold læger og ingeniører på Odense Universitetshospital og Syddansk Universitet har udviklet en kunstig intelligens, som hjælper læger og forskere med at finde bestemte informationer i en patientjournal. Der er overraskende meget tid at spare.

Pernille Just Vinholt fortæller, at presset på de biokemiske afdelinger er steget voldsomt de senere år. Her kan AI hjælpe med mere effektive arbejdsmetoder og værktøjer. Foto: Kent Bovin.
8. jul. 2024
9 min.

En time. Så lang tid tager det i snit at gennemgå ti års notater i en patientjournal for at finde f.eks. oplysninger om blødninger.

85 sekunder. Så hurtigt går det, når lægen får assistance til at finde informationerne af en kunstig intelligens, som highlighter alle sætninger med de ord, som lægen er interesseret i.

Og så får lægerne endda også fat i flere relevante informationer ved hjælp af den kunstige intelligens.

Uden AI overser læger nemlig op til 30% af de relevante sætninger.

Regnestykket står professor, ledende overlæge Pernille Just Vinholt, fra Blodprøver og Biokemi, på OUH, Odense Universitetshospital, bag. Og hun er både tilfreds med og overrasket over facit.

»Vi har masser af it-værktøjer, men det er ikke dem allesammen, der er bygget til at gøre vores verden lettere. Det her kan faktisk spare tid og hjælpe lægen til at gøre mere for patienten«, siger hun.

At patientjournaler indeholder en guldgrube af informationer er velkendt. Også at data er vanskelige og tidkrævende at trække ud af journalen, fordi de for store deles vedkommende er pakket ind i ustruktureret tekst i rå mængder. 

I værste fald koster den manglende adgang til informationerne fejldiagnoser og -behandling, og at vi potentielt går glip af banebrydende opdagelser inden for sundhedsvidenskabelig forskning. 

Men takket være udviklingen inden for sprogteknologien med såkaldt naturlig sprogbehandling, NLP, Natural Language Processing, er det nu muligt at omdanne den ustrukturerede tekst til strukturerede informationer.

Dermed er det muligt hurtigt og præcist at høste de vigtige data, journalerne indeholder.

Og forskerne i Odense har altså udnyttet teknologien til at udvikle et værktøj, som er testet og har vist sin værdi. 

I algoritmernes maskinrum

At finde vej til afdelingen Blodprøver og Biokemi på Odense Universitetshospital, hvor Pernille Just Vinholt har kontor sammen med sit team, er næsten lige så vanskeligt som at finde bestemte data i en patientjournal – uden hjælp af en AI. Men også kun næsten. Med lidt vejledning finder man alligevel Pernille Just Vinholt på første sal.

Ti læger, it-ingeniører og studerende er involveret i arbejdet her i »algoritmernes maskinrum«, hvor de i fællesskab bygger bro mellem det lægefaglige, det sproglige og matematikken.

Teamet har specialiseret sig i at udvikle danske kliniske sprogmodeller til at trække klinisk information ud af de elektroniske patientjournaler og har arbejdet med sprogteknologiske algoritmer siden 2019 – altså længe før ChatGPT blev »sluppet løs« i 2022 og kom på alles læber.

I kapløb med den teknologiske udvikling har de søsat flere projekter med forskellige samarbejdspartnere, og løbende har de taget nye teknologier i brug.

Værktøjet, der kan hjælpe læger og forskere med at finde data i en journal, er det første af sin slags fra OUH-holdet, men altså ikke det eneste.

Teamet tester, evaluerer og implementerer også algoritmerne, og de opbygger danske tekstdatasæt til træning af algoritmer.

Senest har de formateret tekster fra en stor åben dokumentsamling på omkring 16.000 dokumenter i Region Hovedstaden på vegne af Digitaliseringsstyrelsen.

Og til at træne egne algoritmer har de samlet 144 mio. ord fra kliniske guidelines fra de fem regioner, medicin.dk, netdoktor.dk, og sundhed.dk, medicinske bøger fra FADL og lægefaglige dokumenter fra Wikipedia.

For Pernille Just Vinholt går der en lige linje mellem hendes interesse i at udvikle den type værktøjer og hendes baggrund som speciallæge i Klinisk Biokemi.

»Mindsettet omkring at hjælpe lægerne ligger i specialet, hvor vi hele tiden arbejder på at finde måder til at hjælpe med diagnostik, herunder håndtering af data. Vi forsøger at optimere logistik og arbejdsgange, så vi drager bedre nytte af de ressourcer, vi har, og måske også hurtigere får svar, så lægerne hurtigt kan tage den rette beslutning«.

Presset på de biokemiske afdelinger er vokset enormt år for år, og den udvikling forstærker også ønsket om at udvikle nye arbejdsmetoder og værktøjer, fortæller hun.

»Tidligere fik vi en enkelt blodprøve ad gangen – nu får vi mange på én gang, og vi har 11 mio. resultater om året. Det kan være overvældende for de læger, der skal forholde sig til laboratoriesvarerne. Så det kræver struktur og systemer, og derfor arbejder vi tværfagligt og sammen med personalet i klinikken for at se, om vi kan levere bedre diagnostiske test, end vi har i dag«.

En sprogmodel, men ikke som ChatGPT

Når Pernille Just Vinholt og hendes team fortæller om deres sprogmodeller, oplever de ofte at blive misforstået. Mange tror, at alle sprogmodeller er ligesom ChatGPT. Men det er ikke tilfældet.

ChatGPT og andre lignende sprogmodeller som f.eks. Gemini og Claude, er LLMs, Large Language Models, store sprogmodeller. De er trænet på enorme mængder af data om vidt forskellige emner fra hovedprincipperne for en atomdreven raketmotor til opskriften på en citronbudding, og de har en brugerflade som en chatbot, man kan have en dialog med.

Illustration: Creativezoo

»Vores fokus har været på mindre modeller, og fordelen ved dem er, at de er nemmere at håndtere. ChatGPT tager faktisk tid og kan være tung at arbejde med. Vores algoritmer er trænet specifikt på journaldata, så de har en unik forståelse af den kontekst, de skal arbejde i. Vi gør også meget ud af kvalitet i de data, de bliver trænet på«, fortæller Pernille Just Vinholt.

»Vores algoritmer bliver også brugt lidt anderledes. De modeller, vi bruger, handler ikke om at levere lange tekster, men om at finde informationer i tekster. Og det gør, at vi ved præcis, hvor godt de fungerer. Og de finder ikke lige pludselig på noget, som ChatGPT kan. Vores sprogmodeller er også evidensbaserede – vi kan stå på mål for, at de virker, og vi har udviklet en måde at evaluere dem på. Både teknisk, men også når de er i brug i klinikken«.

En skarpt afgrænset opgave

Den omtalte model, som skal identificere blødningsepisoder, bygger på noget af den samme teknologi som de store sprogmodeller, men er altså udviklet til en meget afgrænset opgave og har ikke chatbotfunktionen. Det er en lille, specialiseret sprogmodel, trænet på anonymiserede dele af danske patientjournaler: 114.000 sætninger om blødningsepisoder fra 4.000 mennesker.

Tidligere blødningsepisoder er vigtige at kende til, for de er en af de væsentligste risikofaktorer for fornyet blødning.

»Vi har brug for at vide, om der er blødninger flere steder, for at afgøre om der kan være tale om problemer med blodstørkning. Hvis der f.eks. kun har været blødninger fra næsen, tyder det derimod på et lokalt problem«, forklarer Pernille Just Vinholt.

Modellen kan bruges både i forhold til en konkret patient, en hel patientkategori og til forskning, planlægning og statistik.

For den enkelte patient kan informationer om blødningsepisoder være vigtige for patientens prognose og lægens beslutning om behandling.

I forhold til en patientkategori som f.eks. patienter, som skal på operationsbordet, kan algoritmen bruges til at trække blødningskomplikationer i forbindelse med operationer ud af et stort antal journaler for at identificere risikosituationer. Og dermed kan den skabe grundlag for forebyggelse af komplikationer.

Endelig kan den bruges til at sætte tal på, hvor hyppigt forskellige komplikationer forekommer, og dermed indgå i prioritering af ressourcer og i forskning.

Modellen er allerede i brug til forskning, hvor den erstatter studerende, som ellers bliver sat til at finkæmme journaler for bestemte oplysninger.

Og den er også så småt på vej ud i klinikken.

»I første omgang er vi begyndt at implementere den til udredning for arvelige sygdomme inden for abnorm tendens til blodpropper og blødning«, fortæller Pernille Just Vinholt. 

De valgte »det sværeste«

Valget af netop blødningsepisoder skyldes, at Pernille Just Vinholt er med til at rådgive læger på sygehuset om patienter med tendens til blodpropper og/eller blødning.

»Vi har tit brug for sygehistorien, og så skal man jo have gennemtrawlet hele journalen for at finde ud af, om patienten tidligere har haft problemer med blødninger«, forklarer hun.

Men der var også en anden grund.

»Blødninger er et svært og komplekst emne. Man kan bløde alle mulige steder fra, og det kan beskrives på rigtig mange forskellige måder. Så vi havde den tilgang, at hvis man kunne løse det problem, så kunne man løse de fleste problemer rent teknisk«.

»Vores algo­ritmer er trænet specifikt på journaldata, så de har en unik forståelse af den kontekst, de skal arbejde i«Pernille Just Vinholt, professor, ledende overlæge

»Det svære« er en af grundene til, at det har taget fem år at nå hertil. Det ved om nogen to af Pernille Just Vinholts medarbejdere, som sidder længere nede ad gangen. Sprogteknologiingeniør, ph.d., Martin Sundahl Laursen og ingeniør Rasmus Bank Lynggaard, som er med til at udvikle algoritmerne og står for kodning og træning af dem.

Rasmus Bank Lynggaard demonstrerer på skærmen, hvordan sprogmodellen, der finder blødningsepisoder, fungerer.

Han skriver et søgeord. Lynhurtigt highlighter sprogmodellen med blåt de sætninger i teksten, der har med ordet at gøre, så de optræder i deres rette sammenhæng. Den plotter også fundene, som f.eks. næseblod, et blødende mavesår eller blod i urinen ind på 12 anatomiske »adresser« på en grafisk fremstilling af en menneskekrop. Det visuelle element giver et hurtigt overblik og er med til at nedbringe tidsforbruget.

For at give et indblik i kompleksiteten i det arbejde, de sidder med, fortæller Rasmus Bank Lynggaard, at et ord som »blødning« rent faktisk kan »staves« på 400 måder – fordi alle mulige forkortelser, stavefejl og latinske betegnelser skal dækkes ind som f.eks.: Bl., blæding, cruentis osv., osv.

Et andet eksempel siger også noget om, hvorfor det tager tid at lære en maskine at »forstå« menneskesprog.

»Nogle ord er ens, men har forskellige betydninger, som navnet ,Hans’ og stedordet ,hans’ eller ordet ,rask’, som både kan betyde ,hurtig’, ,kureret’ eller ,ikke syg’. Og den slags ord skal den kunstige intelligens kunne arbejde korrekt med«, siger Martin Sundahl Laursen.

Han forklarer, at en sprogmodel bliver til ad to omgange.

Først skal modellen have et ordforråd og en sprogforståelse – som skal oversættes til computerens »sprog«: matematik.

»Det kræver enormt meget computerkraft at træne den første del til sprogforståelse, men computeren passer mere eller mindre sig selv, når man har givet den en kæmpe mængde tekst at læse igennem«, siger Martin Sundahl Laursen.

Anden del handler om at træne algoritmen til en specifik opgave. Modellen lærer at fokusere på bestemte dele af teksten og se bort fra andre. Som i tilfældet med den omtalte algoritme, der er trænet til at afgøre for hver sætning i en journal, om der står noget om blødningsepisoder: ja eller nej.

»Når den anden del starter, kommer jeg virkelig på arbejde. At træne modellen til at forstå en specifik opgave, som f.eks. blødning, tager omkring 80% af indsatsen, og her kan man virkelig ,make’ eller ,breake’ en model«, siger Martin Sundahl Laursen.

»Det har selvfølgelig taget noget tid at blive god til det. Men når man først har lavet et roadmap og en metode, så går det jo hurtigere og hurtigere for hver gang, vi skal udvikle til andre formål«, siger Pernille Just Vinholt.

Så det her er kun begyndelsen.

Sprogmodellen kan forholdsvis nemt målrettes til at »highlighte« alle mulige andre symptomer og tilstande i en journal. Og en model er allerede undervejs, som kan bruges til at søge på alle sygdomme, symptomer, diagnostiske test og resultater og behandlinger sammen med deres anatomiske placering.

Fakta

Kan AI spare tid for lægen?