”Der genereres enorme mængder af data om os hele tiden. Data, der lagres mange forskellige steder. Ingen har et samlet overblik over deres egne data. Ingen ved, hvem der har adgang til hvilke data om dem”, siger Annemette Broch, stifter af Data for Good Foundation.
Organisationen arbejder ikke for at forhindre brugen af data, men for at sikre, at borgerne får ejerskab til og kontrol med egne data samtidig med, at data kan blive brugt værdiskabende i et etisk forsvarligt setup.
”Ejerskab over egne data vil bane vejen for, at borgere for eksempel kan dele eller donere deres data til forskning eller med private aktører, når det giver mening – til gavn for egen og andres sundhed. Hvorfor ikke have mulighed for selv at bestemme, om forskere eller private virksomheder må bruge mine data – og hvad de må bruge dem til?”, siger Annemette Broch.
Alexandra Instituttets Anders Kofod-Petersen sympatiserer fuldt ud med den tradition, vi har i Danmark for beskyttelse af persondata, så viden om borgerne ikke kan udnyttes til kommercielt formål. Men han kalder det også et ”ingeniørproblem”, som kan løses.
”Frygten for, at data kan kobles til specifikke individer, kan vi løse. Det skulle da være nemt at udvikle noget software, der anonymiserer vores data, så de kan blive brugt til forskning”, siger Anders Kofod-Petersen.
I Danmark har vi ifølge Annemette Broch alle muligheder for at gøre ”det her rigtigt” før alle andre, fordi vi har helt unikke registerdata, som kan kobles sammen via vore CPR-numre. De fleste andre lande har historisk ikke samme tradition for at registrere borgernes sundhedsdata. Derfor kan de alligevel godt overhale os indenom. Men de har ikke nær så gode sundhedsdata endnu. Så hvis de overhaler os, bliver det med et dårligere "produkt".
”Ja, der er mange faldgruber, som vi skal have styr på. Men hvis ikke vi går i gang nu, så kommer vi til at sidde på verdens største sundhedsdatakirkegård. Data i sig selv har ingen værdi – det er bare data. Det er først, når vi kombinerer forskellige relevante data og tilsætter kunstig intelligens, at det bliver værdifuldt”, siger Annemette Broch.
Derfor foreslår man i Data for Good Foundation, at ”dataejerskabet tages ud af ligningen”. Med det menes, at hvis borgerne selv får overdraget retten til at kontrollere deres egne data, er der ikke længere noget for hverken staten eller erhvervslivet at kæmpe om. I stedet kan man gå i gang med at bruge data på tværs af aktører til glæde for både borgeren selv, det offentlige og det private erhvervsliv. Alt sammen i et kontrolleret økosystem med borgeren i centrum.
”Får vi gjort det, vil sundhedsdata og kunstig intelligens kunne blive en kæmpestor eksportvare for Danmark. Den nye nordsøolie. Men det kræver, at vi giver dataejerskabet tilbage til borgerne”, siger Annemette Broch.
Undgå alt for sorte bokse
Frygten for at parre kunstig intelligens og store mængder data handler ikke kun om personfølsomhed. Selve teknologien skræmmer også. Maskiner skal ikke blive klogere end mennesker, ligesom maskiner ikke skal behandle patienter. Især ikke hvis vi ikke forstår maskinens bevæggrunde.
”Nogle af de mest avancerede algoritmer er meget black box-agtige. De kan være så avancerede, at vi ikke forstår de kausale sammenhænge. Det vil være en udfordring for en læge at forklare rationalet bag en behandling, hvis han ikke selv forstår kausaliteten”, siger Enversions Simon Holm Lauritsen, der selv lever af at udvikle it-systemer til sundhedsvæsenet.
Af samme grund forskes der i at udvikle metoder, der dekoder algoritmerne, så lægen for eksempel kan spørge maskinen: "Hvorfor tog du den beslutning?".
”Den gennemsigtighed er nødvendig, hvis vi skal have tillid til maskinlæring. Det er heldigvis ikke et uløseligt problem. Men det er vigtigt, at vi ikke bare kaster de mest avancerede black boxes efter sundhedsvæsenet. Ja, vi vinder lidt ved at bruge de mest lukkede black boxes, men hvis man ikke forstår rationalet bag en behandling, så får teknologien aldrig accept fra klinikerne”, erkender Simon Holm Lauritsen.
Den mistro til kunstig intelligens handler dog formentlig om noget helt andet. Nemlig om jobsikkerhed. Professor i data science Ole Winther, Kognitive Systemer, DTU Compute, mener, at meget af frygten for kunstig intelligens stammer fra, at mange projekter bliver startet med et forkert formål.
”Intelligente systemer kan og skal ikke overtage menneskers arbejdsfunktioner 100 procent”, fastslår han.
Der er masser af opgaver i sundhedsvæsenet, hvor tingene kan gøres bedre ved at implementere intelligente værktøjer, som støtter og komplementerer læger og sygeplejersker, mener Ole Winther. Han har selv været med til at udvikle algoritmen i søgemaskinen findzebra.com. Her indtaster lægen patientens symptomer, hvorefter maskinen ved hjælp af kunstig intelligens søger og sorterer i enorme mængder information om sjældne sygdomme fra forskellige kilder på nettet, for at finde et mønster og så komme op med et antal forslag til, hvilke sygdomme der kan være tale om.
”Det er ikke muligt for lægen at huske alle sygdomme og tilhørende symptomer udenad. Det er heller ikke nødvendigt, for det er ikke særlig svært at lave en algoritme, som spytter 20 forslag tilbage, som lægen med sin faglighed forholdsvist hurtigt kan kigge igennem og sige: ,Ja, de tre første var også mit bud, nummer fire og fem er noget sludder, men nummer seks havde jeg ikke selv tænkt på’”, forklarer Ole Winther om onlineværktøjet.
”Maskinen hjælper, men lægen er stadig den ultimative beslutningstager”, påpeger han.
Human-machine team
Et patologisk forskningsstudie fra 2016 viste netop, hvad der sker, når kunstig intelligens parres med menneskelig intelligens. Forsøget undersøgte, hvor præcist henholdsvis maskinlæring og radiologer af kød og blod kunne finde kræft i vævssnit. Radiologerne havde en fejlrate på 3,5 procent. Maskinens fejlrate var 7,5 procent. Men når man kombinerede de to, var fejlraten pludselig 0,5 procent.
”Når computeren fandt en vævsprøve og sagde: ,Kunne det her være en knude, hvad siger du?’, så kiggede radiologen på den. Og den anden vej: Lægen kunne trykprøve sin vurdering op imod computeren. Det boostede præcisionen”, fortæller Simon Holm Lauritsen fra Enversion.
Men der er også andre grunde til, at kunstig intelligens snarere skal ses som sparring end jobovertagelse. Kunstig intelligens opnås typisk ved, at det er eksperter, der træner computeren op til at kunne forstå et specifikt område. For eksempel ved at fodre den med patientdata, røntgenbilleder eller gennem direkte input.
”Maskinerne lærer ud fra træningsdata, og de mest oplagte træningsdata er nu engang eksperters beslutninger. Derfor fodrer man maskinen med de symptomer, diagnoser og behandlinger, som fagpersoner er kommet frem til. Maskinen lærer altså at imitere eksperterne, og vi ved jo alle, at konsensus fra 100 eksperter er bedre end en ekspert”, påpeger Ole Winther.
Også Watson er trænet af radiologer, så den selv til sidst kan ræsonnere sig frem til, hvad den ser ved mammografier.
”Watson kan hjælpe med at skille alle de mammografier fra, hvor der ikke er en knude på, så radiologen kun skal kigge på de mammografier, hvor maskinen har fundet noget”, forklarer Peter Mortensen fra IBM.
”Så når man som kliniker sparrer med en algoritme, så sparrer man med alle de valg, som dygtige klinikere har taget før en selv. Man indgår som læge eller sygeplejerske i en slags human-machine team,” siger Simon Holm Lauritsen fra Enversion.
Pligt til at handle?
På Regionshospitalet Horsens er forsøget på alle måder unikt. Ingen andre forsøg med kunstig intelligens har fået lov at bygge så stor en database op med patientdata. Forsøget er derfor på alle måder et kig ind i den fremtidige brug af data, som vi endnu er langt fra at implementere, men som allerede nu er teknisk mulig.
Men selv om projektet skulle vise sig at være en succes – at man med maskinlæring rent faktisk kan finde de borgere, der med stor sandsynlighed vil blive indlagt akut inden for det næste år – er ingen af de etiske, juridiske, regulatoriske eller praktiske forhindringer løst.
”Hele implementeringsdelen, hvordan teknologien skal anvendes i klinikernes hverdag, har vi slet ikke styr på endnu. Der er en masse sundhedsfaglige, etiske og praktiske aspekter, som ikke er afklaret”, forklarer Lise Viskum Hansen, cand.oecon og chefkonsulent på projektet i Horsens, hvor man arbejder tæt sammen med mange faggrupper – herunder klinikere – om at finde muligheder for teknologiens anvendelse i praksis.
Adgangen til data efter forsøgsperioden og det faktum, at hospitalet ikke må kontakte borgere uden først at have deres samtykke, er eksempler på forhindringer for en efterfølgende implementering af teknologien fra forsøget i Horsens.
”Spørgsmålet er jo, når vi ved, hvilke borgere der med stor sandsynlighed vil blive akut indlagt inden længe, hvor og hvordan skal vi så fiske borgeren op? Det ved vi ikke endnu. Der er jo også det etiske aspekt i, at når vi har det kendskab til borgeren, har vi så ikke en pligt til at handle?”, siger projektleder Gitte Friis Kjeldsen.
Ifølge Anders Kofod-Petersen, Alexandra Instituttet, er det en direkte synd, hvis sundhedsvæsenet i Danmark ikke får styr på de mange forhindringer for at bruge kunstig intelligens.
”Der er behov for at stille det omvendte etikspørgsmål: Kan vi være bekendt, når et menneske møder sygt op på sygehuset, at vi så siger: ,Vi har ikke tænkt os at bruge al den tilgængelige information, vi har, for at hjælpe dig bedst muligt – for vi kan ikke etisk tillade et system, der kigger i andre folks journaler for at hjælpe dig’? Dermed siger vi jo aktivt, at vi ikke er interesserede i at levere den bedst mulige behandling. Det er for mig en meget stor synd”, siger Anders Kofod-Petersen.
Læs også medicinsk nyhed: Brug af ”big data” og ”machine learning” indenfor lægevidenskab er ikke uden problemer
Læs også: Dansk registerforskning trues af Sundhedsplatformen
Læs også: Kunstig intelligens i klinikken
Læs også: Hovedstaden og IBM i aftale om kunstig intelligens
Læs også: Regioner: Milliarder til kunstig intelligens