Skip to main content

Forebyggelse af misinformation om sygdom og sundhed genereret af kunstig intelligens

Medicinsk information og misinformation er begge i vækst. Et nyt studie har undersøgt graden af misinformation genereret ved hjælp af kunstig intelligens.

Redigeret af Jens Peter Gøtze, jpg@dadl.dk

21. maj 2024
2 min.

En hjørnesten i lægens samlede gerning er korrekt information. Med kunstig intelligens er meget information endnu mere tilgængelig. Ditto er graden af misinformation. Et studie har derfor set på, hvorledes forskellige tiltag til at forebygge misinformation gennem kunstig intelligens virker.

Andreas Pihl, medicinsk leder, Roche Diagnostics, kommenterer: »Menz et al præsenterer på elegant vis nogle helt centrale udfordringer, der er ved brugen af kunstig intelligens (AI), nærmere bestemt de store sprogmodeller i sundhedsvæsenet. De sammenligner fire af de største generative AI-modeller og deres evne til at generere fejlagtig og misvisende information. Forfatterne udstiller sprogmodellernes evne til at producere sundhedsinformation, herunder f.eks. nyhedsartikler om, at solcreme er årsagen til modermærkekræft. Forfatterne spekulerer i, at ondsindede mennesker kan udnytte dette til at masseproducere falsk indhold for at sprede misinformation. Publikationen viser tydeligt, hvor nemt dette er. Derudover er to pointer værd at bemærke, nemlig at den næste version af en sprogmodel ikke altid bliver bedre (forværringen kaldes model drift). Det viser forfatterne ved, at den ene model (GPT4 i CoPilot) i første omgang ikke kunne producere misinformation, men da forskerne forsøgte 12 uger senere, var det pludselig muligt. Derudover viser de desværre, at udviklerne/virksomhederne bag ikke svarer, når man ,anmelder’ misinformation som dette. Det er under al kritik, at rapporteringsmekanismerne ikke fungerer. Særligt én af de fire undersøgte chatbots skilte sig positivt ud, nemlig Claude 2 (Anthropic), der excellerede ved at nægte at producere misinformation, selvom forfatterne gjorde alt for at snyde (jailbreake) den. Det viser, at sprogmodellerne kan ,tæmmes’ til at nægte at levere fejlagtig sundhedsinformation. Desværre er Claude endnu ikke tilgængelig i Danmark, og den er langtfra perfekt og hallucinerer desværre mere end de øvrige sprogmodeller«. 

Interessekonflikter ingen