Skip to main content

Byggesten i kunstig intelligens ligger i mørke

Kunstig intelligens, der bruges i behandlinger, skal overholde loven om medicinsk udstyr. Men redskaberne til at kontrollere den type udstyr er ikke udviklet nogen steder endnu. Men den danske Lægemiddelstyrelse er på sporet.
Thomas Senderovitz, direktør for Lægemiddelstyrelsen. Foto: Lmst.dk
Thomas Senderovitz, direktør for Lægemiddelstyrelsen. Foto: Lmst.dk

Anne Steenberger, as@dadl.dk

17. jan. 2020
7 min.

Når en person med ondt i brystet ringer 112, hjælper en kunstig intelligens den menneskelige med at vurdere, om vedkommende har en risiko for blodprop i hjertet. Det gør den ved at analysere stemme og vejrtrækning.

For nylig vakte det opmærksomhed i medierne, at Intensiv Terapiklinik på Rigshospitalet er ved at udvikle et databaseret værktøj, der kan hjælpe lægerne med at vælge behandling til meget syge intensivpatienter. Det er også baseret på kunstig intelligens. Udstyret bliver formentlig implementeret på afdelingen om fem år, når den er blevet testet i klinisk forsøg og indbygget i Sundhedsplatformen.

Kunstig intelligens er i voldsom fart på vej ind i sundhedsvæsenet, også i behandlingen af patienter. Lovmæssigt er den at sammenligne med medicinsk udstyr og skal reguleres tilsvarende af myndigheder.

Endnu kan myndighederne følge med og håndtere kunstig intelligens.

Men for at undgå wild west på området, skal myndighederne i de kommende år præstere et vildt ridt for at kunne måle sig med udviklingen.

»Udviklingen på det område går så hurtigt, at den overhaler de regulatoriske retningslinjer«, konstaterer Thomas Senderovitz, direktør for Lægemiddelstyrelsen.

I det seneste år har Lægemiddelstyrelsen oprustet betydeligt for at komme på omgangshøjde med udviklingen. Et dataanalysecenter er oprettet, og bemandingen inden for machine learning og deslige er ved at blive oprustet.

Ambitionerne er høje.

»Ikke bare hospitalerne, men også farmavirksomhederne begynder at anvende algoritmer. Og sagen er, at der endnu ikke er en fælles europæisk lovgivning på området, der er internationalt ingen regulatoriske myndighedsguidelines, hverken i USA eller EU. Vi har i den danske Lægemiddelstyrelse sat os for, at vi vil være førende«, siger Thomas Senderovitz.

Han anerkender, at det er en enorm opgave.

»Det er et meget, meget vanskeligt teknisk stykke arbejde, der skal laves. Vi skal blive klogere på det her område, så vi bliver i stand til at vejlede og rådgive sygehuse og forskere inden for kunstig intelligens. Vi skal kunne inspicere virksomheder og hospitaler, der bruger algoritmer. Hvis der opstår problemer, skal vi kunne evaluere, om de stammer fra problemer i algoritmen«, siger Thomas Senderovitz.

Det er ikke, fordi vi vil bremse begejstringen hos lægerne, men vi skal jo gå ind og se på patientens tarv i forhold til sikkerheden ved brugen af disse algoritmer. Og dermed har vi nogle opgaver foran os.

Bias

Hvad er det for »farer« eller udfordringer ved kunstig intelligens, som Lægemiddelstyrelsen har fokus på?

»For det første skal vi sikre os, at der ikke er introduceret bias i den algoritme, man bruger. Her gælder det om at se på de data, som man træner algoritmen på. Hvor kommer de fra?«

Problemet kan opstå, hvis man bruger data, der f.eks. baserer sig på en bestemt gruppe, så har man introduceret bias.

»Hvis algoritmen primært er trænet på mænd, men skal anvendes på kvinder, eller er trænet på voksne, men skal bruges på børn, så er der introduceret bias. Derfor er vores krav, at de, der laver algoritmen skal kunne dokumentere, at de har gjort, hvad de kunne, for at minimere bias«.

Styrelsen er i færd med at etablere et dataanalysecenter, og arbejder desuden med at finde frem til, hvilke kriterier der skal lægges til grund, når de inspicerer IT og kunstig intelligens-systemer.

»Vi bliver nok den første styrelse i EU, der bliver i stand til at arbejde med analyser af rådata. Vores vision er, når det gælder virksomheder, at vi kan gå ind og efterprøve de analyser, der ligger til grund for ansøgningen om godkendelse af et nyt lægemiddel. Når de indsender ansøgningen, så har de regnet på alle deres kliniske data, som de sender os rapporter om. Der, hvor der er en særlig grund til det, skal vi være i stand til at genberegne det, virksomheden har lavet. Det er der ingen i EU, der kan i dag«, siger Thomas Senderovitz.

Fra simple til avancerede algoritmer

Indtil videre er den kunstige intelligens, der anvendes i det danske sundhedsvæsen, formentlig baseret på ret simple algoritmer. Dem kan man godt lave enkle krav til, forklarer Thomas Senderovitz.

Men udviklingen går mod det mere avancerede. Deep learning, dybe netværk – selvlærende algoritmer, er lige om hjørnet.

»Her ligger selve det, der sker, i dybe neurale netværk flere lag væk fra ”data ind og data ud”, i en black box. Man kan sige, der sker noget inde i maskinen og så kommer der et resultat ud«, forklarer Thomas Senderovitz.

Faktaboks

Dataanalysecentret

Det stiller Lægemiddelstyrelsen og myndighederne over for en kæmpeopgave.

»Vi vil gerne kunne forstå, hvad der sker i den sorte boks. Vi skal kunne vide, om det er det rigtige resultat, der kommer ud hver eneste gang, så vi ved, at der bliver truffet de rigtige beslutninger, og ikke pludselig bliver truffet nogle forkerte beslutninger«.

Thomas Senderovitz bruger et eksempel med en algoritme, der bliver brugt til at læse røntgenbilleder.

»Hvis den siger cancer eller ikke cancer, så er det meget vigtigt, at den hver eneste gang rammer plet. Ligesom det er meget vigtigt, at den ikke overdiagnosticerer, så man pludselig får bronkoskoperet en masse patienter, der ikke skulle bronkoskoperes«.

Det er Lægemiddelstyrelsens opgave at stille krav til validering af det medicinske udstyr. Men mulighederne inden for kunstig intelligens byder på stor kompleksitet, og det gør det svært at stille de krav.

Selvlærende algoritmer

»Du kan gå hele vejen rundt: Hvordan har man f.eks. tænkt at bruge de her algoritmer på hospitalerne? Tag f.eks. de selvlærende algoritmer, hvor det ikke er håndholdt hele vejen igennem af programmøren. Tværtimod, efterhånden som der kommer ny viden ind, bliver algoritmen klogere. Og klogere og klogere. F.eks. en selvlærende algoritme, der hjælper med overvågning af intensivpatienter. Hvad nu hvis den algoritme overser nogle befolkningsgrupper, eller hvis den undervejs lærer forkert og så lærer en lille smule forkert hver gang? Hvordan laver man en validering af selvlærende algoritmer?«, spørger Thomas Senderovitz retorisk.

Selvom det stadig er tænkte situationer, er det ikke spor for tidligt, at Lægemiddelstyrelsen tager det her op, mener Thomas Senderovitz.

»Det er ikke, fordi vi vil bremse begejstringen hos lægerne, men vi skal jo gå ind og se på patientens tarv i forhold til sikkerheden ved brugen af disse algoritmer. Og dermed har vi nogle opgaver foran os«.

Thomas Senderovitz peger på, at der også ligger en oplysningsopgave i og med at kunstig intelligens – software og algoritmer, som bruges i diagnostik og eller behandling af patienter, ifølge loven er medicinsk udstyr.

»Det tror jeg, der er nogen læger, der ikke har tænkt over. I gamle dage – dvs. for et års tid siden – var det, man kaldte beslutningsstøtte, simple algoritmer. Men når algoritmerne bliver mere og mere avancerede og på et tidspunkt selvlærende, så er vi på en måde i et nyt land, hvor man ikke har været før på hospitalerne. Jeg forstår godt, hvis læger lader sig rive med af begejstringen over, at der nu er nogle algoritmer, der kan hjælpe patienterne. Men de skal huske, at de skal CE-mærkes«.