Bard blev bedt om at svare på 12 patientspørgsmål.
Nogle af spørgsmålene er udlånt fra Læge- og Patienthåndbogen, og resten er konstrueret til formålet med lægefaglig assistance.
Prompten – det vil sige opgaveformuleringen til den kunstige intelligens (AI) – blev skrevet af læge og medicinsk leder i Roche, Andreas Pihl, som er vant til at bruge AI og er medforfatter til to bøger om bl.a. AI: »Dr. Hansen har set sin sidste patient« og den nye opfølger »Doktor Hansens nye praksis«.
Andreas Pihl promptede både Bard og ChatGPT.
Prompten lød sådan her:
Hej, jeg har 12 spørgsmål, som jeg gerne vil stille dig. Spørgsmålene kommer fra patienten. Du er praktiserende læge og ekspert i almen medicin i Danmark og skal følge danske retningslinjer. Dine svar skal være korrekte og forståelig for alle patientgrupper. Og du skal være så empatisk som muligt.
Et lavpraktisk hensyn gjorde, at Bards svar blev anvendt i testen. De var nemlig i punktform og mest overskuelige at forholde sig til.
Et panel bestående af en kommunikationsekspert, en patientrepræsentant, en praktiserende læge og en empatiekspert vurderede herefter de 12 svar ud fra en empatiskala fra et til fem.
Den praktiserende læge vurderede også den lægefaglige kvalitet af svarene på en femtrinsskala.
Testen er ikke videnskabelig, og formålet med testen er ikke at undersøge Bards empatiske evner rent videnskabeligt. Formålet er udelukkende at få en indikation på, om Bard og lignende store sprogmodeller, såkaldte LLMs, virkelig er mere empatiske end læger, sådan som et studie i JAMA 2023 viste, og endnu et studie i 2024 har vist. Og testen er tænkt som et afsæt for debat.
Se spørgeskema med svar sammen med artiklen på ugeskriftet.dk
Testen er gennemført af videnskabsjournalist Antje Poulsen på vegne af Ugeskrift for Læger i samarbejde med læge, ph.d., journalist Charlotte Strøm. Samarbejdet er udsprunget af »Sundhedsnetværket«, et netværk for journalister og kommunikatører inden for sundhedsområdet.