Skip to main content

Kunstig intelligens kræver gensidig forståelse mellem menneske og maskine

Thomas Bolander

Ugeskr Læger 2020;182:V205011

17. aug. 2020
4 min.

For over 60 år siden definerede den kunstige intelligens’ fader, John McCarthy, kunstig intelligens som »videnskaben og ingeniørkunsten at lave intelligente maskiner, især intelligente computerprogrammer«. Det kræver en præcis definition af intelligens at få en præcis forståelse af McCarthys definition, noget vi ikke har. Nogen vil desuden indvende, at det slet ikke giver mening at tale om intelligente computerprogrammer. Betegnelsen har imidlertid hængt ved, og målet er stadig at lave maskiner, som udviser noget, der svarer til eller simulerer, intelligent adfærd – typisk ved at lave maskiner, der løser problemer, som ellers kun vi mennesker har kunnet løse.

Det er let at få øje på fordelene ved kunstig intelligens (AI) i sundhedsvæsenet. Et omfattende metastudie viser, at AI har overhalet menneskelig præcision inden for medicinsk billedanalyse [1]. Forfatterne af de to artikler i dette nummer af Ugeskrift for Læger [2, 3] peger herudover på en række succesfulde danske anvendelser af AI inden for sundhed, især mønstergenkendelse på forskellige former for data (billeder, lyd, tekst). De peger også på, at vi i Danmark har unikke sundhedsdata, hvilket giver os særlige fordele, eftersom data er helt afgørende for at kunne træne algoritmer til at kunne genkende mønstre og dermed lave forudsigelser eller stille diagnoser. Der argumenteres desuden for, at AI i sundhedsvæsenet giver økonomiske gevinster [2], bedre, hurtigere og mere individualiseret behandling [2, 3], mere pålidelige analyser/diagnoser [2, 3] og frigørelse af lægeressourcer til andre opgaver [3].

Man skal dog holde tungen lige i munden. AI er et værktøj, som er designet til at hjælpe med at løse vores opgaver, men modsat en hammer er AI ikke et værktøj, hvis funktion er umiddelbart gennemskuelig – hvad kan det bruges til og hvad ikke? Og AI er heller ikke, modsat hammeren, et værktøj, der nødvendigvis altid virker, hvis det ellers bliver brugt rigtigt og ikke åbenlyst er i stykker. Derfor stiller AI særlige krav til dem, der udvikler, udvælger og bruger det, også i sundhedsvæsenet.

AI er et meget generelt værktøj, hvilket både er dets styrke og udfordring. Speedometeret i min bil er alt andet end et generelt værktøj, men det betyder også, at der er ganske få og åbenlyse måder, det kan fejle på. Det er anderledes med AI, som er trænet til at lave meget mere generelle vurderinger og forudsigelser. En førerløs bil vil for det meste gøre det rigtige, men kan i sjældne tilfælde begå uforudsigelige, fatale fejl. Det skete f.eks. da en Tesla i autopilot-mode i 2016 i høj fart kørte frontalt ind i anhængeren på en tværgående lastbil, som den tolkede som et motorvejsskilt over vejen. Chaufføren havde blind tillid til autopiloten og var i gang med at se Harry Potter på sin iPad. Det blev så det sidste, han gjorde. Overført til sundhedsområdet er det potentielt problematisk, hvis AI til diagnosticering begår uforudsigelige, fatale fejl, uden at nogen menneskelige eksperter er opmærksomme og klar til at gribe ind (selv hvis det sker meget sjældent).

Det er vigtigt, at beslutningstagere og sundhedspersonale som minimum har en overordnet forståelse af AI og dets styrker og svagheder, så man forstår, hvilke muligheder og begrænsninger forskellige AI-systemer har, og er i stand til at vurdere, hvornår der er behov for, at et menneske overtager styringen (f.eks. hvis en robot fejltolker en situation, eller et diagnosticeringssystem kommer med en usandsynlig diagnose). Eftersom trænede AI-systemer nærmest pr. definition aldrig kan være 100% fejlfri, kan vi ikke lade dem løse problemerne helt selv – de skal suppleres med menneskelige vurderinger.

Jo mere avanceret AI bliver, des større bliver behovet for, at menneske og maskine løser problemerne i fællesskab med gensidig indsigt i hinandens beslutningsprocesser. AI-algoritmer bliver ofte udskældt for at være »black boxes«, altså systemer, som vi mennesker ikke kan forstå den præcise virkemåde af. Der er helt sikkert noget om snakken, men det behøver ikke være sådan, det er blot en begrænsning i de algoritmer, vi bruger lige nu. Vi både kan og skal stille krav til algoritmernes forklarlighed i fremtiden, ligesom vi stiller krav til, at vores medmennesker kan begrunde deres hypoteser og beslutninger. Dermed handler det heller ikke kun om, at mennesker får bedre indsigt i maskinernes virkemåde, men omvendt også om, at vi udvikler AI i retning af at gøre maskinerne bedre til at kommunikere deres overvejelser, vurderinger og beslutninger til mennesker [4].



Korrespondance: Thomas Bolander. DTU COMPUTE, Institut for Matematik og Computer Science, Danmarks Tekniske Universitet. E-mail: tobo@dtu.dk
Interessekonflikter: ingen. Forfatterens ICMJE-formular er tilgængelig sammen med lederen på Ugeskriftet.dk

Referencer

Litteratur

  1. Liu X, Faes L, U Kale A et al. A comparison of deep learning performance against health-care professionals in detecting diseases from medical imaging: a systematic review and meta-analysis. Lancet Digital Health 2019;1:E271-E297.

  2. Kruse CR, Lindskow T, Ibrahim RM et al. Kunstig intelligens i det danske sundhedsvæsen. Ugeskr Læger 2019;181:V09190540.

  3. Ladefoged CN, Andersen FL, Højgaard L. Kunstig intelligens til klinisk billeddiagnostik. Ugeskr Læger 2020;182:V10190563.

  4. Bolander T. Hvordan ser fremtiden ud med kunstig intelligens. Informations Forlag, 2019