Skip to main content

Metoder i livskvalitetsforskning

Overlæge, lektor Mogens Grønvold Bispebjerg Hospital, Palliativ Medicinsk Afdeling, Forskningsenheden, og Københavns Universitet, Institut for Folkesundhedsvidenskab, Afdeling for Sundhedstjenesteforskning

29. feb. 2008
17 min.


Der er udviklet en omfattende forskningsmetodologi til belysning af den videnskabelige kvalitet af spørgeskemaer om helbredsrelateret livskvalitet. Da denne metodologi kan udforske vigtige aspekter af spørgeskemaers validitet og reliabilitet, er det centrale spørgsmål ikke længere, om spørgeskemaundersøgelser er valide, men om, hvor tilstrækkeligt deres validitet ved givne anvendelser er undersøgt. Med nyere statistiske metoder ses et skift i retning af interaktive, individualiserede spørgeskemaer.

Der forskes i vidt omfang i patienters helbredsrelaterede livskvalitet. Forskningen omfatter både kvantitative (typisk spørgeskemaer) og kvalitative metoder (typisk interview). I denne artikel fokuseres der på spørgeskemaundersøgelser. Er denne slags data videnskabeligt solide? Det er de ikke altid - som på alle andre forskningsfelter er der store variationer i kvalitet - men der eksisterer en velbeskrevet forskningsmetodologi, som kan anvendes til at opnå høj videnskabelig kvalitet.

Metoderne belyser bl.a. validitet, altså om et spørgeskema måler det, det forventes at måle [1], og reliabilitet (pålidelighed), altså om resultaterne er konsistente og reproducerbare [1, 2]. Denne artikel vil give en introduktion til denne forskningsmetodologi.

Indholdsvaliditet

Det ses nogle gange, at der planlægges kliniske undersøgelser, der har til formål at »forbedre patienters livskvalitet«, uden at dette er defineret nøjere, eller hvor arbejdet med at udvælge livskvalitetsendemål overlades til nærmeste, uerfarne reservelæge. Det svarer til, at en klinisk forsker skriver i sin forskningsprotokol, at en ny behandling skal »forbedre patienternes blodprøver«, og overlader udvælgelsen af disse til en tilfældig medarbejder.

Et livskvalitetsspørgeskemas indholdsvaliditet [1] i en given undersøgelse handler om, hvorvidt det indeholder de rette spørgsmål til at give svar på forskningsspørgsmålet [1-4]. Vil man sammenligne to behandlinger, skal et indholdsvalidt spørgeskema indeholde spørgsmål, som belyser både de mulige gevinster og de mulige ulemper ved begge behandlinger.

Indholdsvaliditeten sikres ved først at gennemgå den relevante litteratur på feltet: Hvad ved man om, hvordan patienterne har det ved den sygdom, behandling eller i den livssituation, man vil undersøge (fysisk, psykisk, socialt og i form af påvirkning af funktionsniveau)? Hvilke teorier er der udarbejdet for de begreber, der skal undersøges? Det kan ofte betale sig at supplere litteraturgennemgangen med en mindre interviewundersøgelse med f.eks. 10-15 patienter og et tilsvarende antal fagpersoner, der interviewes åbent med udgangspunkt i forskningsspørgsmålet [2].

Ud fra dette materiale udarbejdes der en liste over de emner, der skal være indeholdt i spørgeskemaet. Bliver listen for lang, eller er der tvivl om, hvorvidt alle temaerne er relevante, kan udvælgelsen understøttes af yderligere ekspert- og patientinterview om emnernes relative vigtighed [2, 5].

Ud fra denne liste kan der foretages en kvalificeret analyse af de eksisterende spørgeskemaer. Analysen vil vise, om der er standardspørgeskemaer, der har det ønskede indhold, og om der er behov for at udvikle nye spørgsmål.



Kriterievaliditet

Når man har sikret sig, at der i undersøgelsen stilles de rette spørgsmål til at give svar på forskningsspørgsmålet, drejer den næste overvejelse sig om, hvorvidt spørgsmålene giver korrekte svar. Besvarelse af et spørgeskema er en kompliceret proces, der er beskrevet kognitionspsykologisk og bl.a. omfatter, at personen skal forstå spørgsmålet, finde relevant information frem, gennemgå en række beslutnings- og vurderingsprocesser, og vælge et svar [6, 7]. Man kan absolut ikke tage det for givet, at alle trin i denne proces fungerer optimalt.

Er der tale om observerbare fænomener, der kan måles uafhængigt af spørgeskemaet, kan der opstilles eksperimenter, hvor spørgeskemaet anvendes parallelt med en ekstern måling af de samme fænomener, der således opfattes som kriterier for »den sande værdi«.

Kriterievaliditet (criterion validity ) [1, 2] kan f.eks. belyses ved spørgsmål om alder og køn, hvis man har adgang til CPR-numre. Problemet er imidlertid, at det ofte ikke er muligt at finde kriterier for gyldigheden af svar vedrørende subjektive fænomener som smerter, psykisk velbefindende og social støtte [2].

Begrebskvalitet

Tankegangen ved begrebsvaliditet (construct validity ) er, at når det ikke er muligt at måle validiteten direkte ved at sammenligne med et kriterium, må validiteten belyses indirekte. Begrebsvaliditet drejer sig om at undersøge, om en metode måler det begreb, den formodes at måle [2], og undersøgelser af begrebsvaliditet bygger på at opstille teoretiske modeller, der kan belyse validiteten, og teste disse modeller [1].

F.eks. kan validiteten af et spørgsmål om »dit samlede helbred« belyses ved at se på, om svarene forudsiger svarpersonernes fremtidige forbrug af sundhedsydelser eller deres levetid. En stærk sammenhæng taler for, at svarene er i hvert fald delvist korrekte. Undersøgelser, hvor svarene sammenlignes med fremtidige hændelser, betegnes som studier af prædiktiv validitet [1].

Tilsvarende kan man analysere sammenhænge mellem spørgsmål. Man må forvente, at forskellige spørgsmål om psykisk velbefindende har en relativt høj korrelation med hinanden. Dette betegnes som analyser af convergent validity [1]. Omvendt forventes deres korrelation med spørgsmål om fysisk helbred at være mindre (divergent validity [1]). En korrelationsmatrix, hvor spørgsmålenes interne korrelationer vises, kan således anvendes til en grov vurdering af, om mønstrene er, som man ville forvente.

I undersøgelser af known groups validit y er tankegangen, at man udvælger grupper af personer, som man ved er forskellige [2, 8]. Ved validering af et spørgeskema om aldersrelaterede sygdomme kunne man sammenligne svar fra ældre plejehjemsbeboere med svar fra unge mennesker. Finder man store forskelle, har man en vis evidens for, at spørgeskemaet kan være validt.

Validering af et spørgeskema ud fra tankegangen bag begrebsvaliditet drejer sig således om at designe eksperimenter, der kan skabe evidens for, at svarene er valide.

I en anden tilgang til begrebsvaliditet udfyldte kræftpatienter et spørgeskema og lagde det i en lukket kuvert. Dernæst gennemførtes et interview, hvor spørgsmålene i spørgeskemaet blevet stillet ordret, men hvor patienterne svarede med deres egne ord. Dernæst sammenlignedes patienternes svar i spørgeskemaet forud for interview med et spørgeskema baseret på det åbne interview. I undersøgelsen fandt man (med vis se undtagelser) en høj grad af overensstemmelse, der støttede antagelsen om, at spørgsmålene blev opfattet og besvaret som forventet og dermed gav valide svar [9].

Skalavalidering

I en særlig disciplin inden for undersøgelser af begrebsvaliditet beskæftiger man sig med at konstruere såkaldte multiitemskalaer (hvor svarene fra to eller flere spørgsmål samles til en samlet score) og med at undersøge, om multiitemskalaer, der er konstrueret tidligere, giver korrekte svar. Dette kaldes skalavalidering eller psykometriske analyser.

Scoren fra en multiitemskala kan være misvisende. For eksempel kan et af de spørgsmål, der indgår i skalaen, rumme vigtig information, der ikke afspejles i den samlede score, fordi effekten bliver fortyndet, eller fordi et andet spørgsmål viser modsat tendens [10].

Skalavalidering udføres med statistiske metoder, hvoraf en del bygger på korrelationer mellem spørgsmål i og uden for hver enkelt multi-temskala. Multitrait scaling [2, 11] er relativt simple teknikker baseret på korrelationskoefficienter, der udforsker, om sammenhængene er som forventet (dvs. belyser convergent/divergent validity som nævnt ovenfor).

Faktoranalyse er mere komplekse metoder. Eksplorativ faktoranalyse bruges ofte til at danne multiitemskalaer med. Konfirmatorisk faktoranalyse anvendes til at teste, om multiitemskalaer fungerer hensigtsmæssigt [2]. De eksplorative faktoranalyser kan anvendes til at »skabe« overordnede begreber, idet man ud fra resultaterne beslutter, hvilke spørgsmål der slås sammen [2]. Der er dog en risiko for, at der herved skabes meningsløse begreber, hvis ikke resultaterne fortolkes ud fra teorien på området. Konfirmatoriske faktoranalyser, hvor modeller, der er opstillet på basis af et kendskab til teorier og mekanismer, afprøves statistisk, er i bedre overensstemmelse med princippet om at teste hypoteser, snarere end at bruge statistikken til at opspore sammenhænge.

Med de nyere psykometriske metoder, der bygger på såkaldt item response theory (IRT), kan man bearbejde data fra multiitemskalaer på en langt mere avanceret måde, end man gør i de traditionelle sumskaler, hvor man blot lægger svarene på de enkelte spørgsmål sammen [2]. IRT-modeller kan undersøge sammenhænge mellem sandsynligheden for hver enkelt svarmulighed og svarpersonens beregnede »niveau« for den pågældende egenskab, og derved udregne de enkelte spørgsmåls »sværhedsgrad«. F.eks. kan man for en fysisk funktionsskala finde, at tærsklen for, at mindst halvdelen svarer, at de kan gå selv, ligger relativt lavt på en skala for fysisk funktion. Tilsvarende vil et spørgsmål om, hvorvidt man kan løbe et maratonløb ligge i den øvre ende.

IRT-modellerne giver helt andre analytiske muligheder end de klassiske metoder, idet de gør det muligt at drage mere information ud af hvert enkelt svar. Således vil svaret om, at en person kan løbe et maratonløb, indikere et meget højt niveau for fysisk funktion, og med denne viden er det overflødigt at spørge den samme person, om han eller hun kan gå selv. Metoderne kan derfor udnyttes til udvikling af »intelligente«, computerbaserede spørgeskemaer, såkaldt computerized testing , hvor svarpersonen stilles de spørgsmål, der ud fra de hidtidige svar vil være mest informative [12]. Fordelene er således, at man kan undgå at stille »dumme« spørgsmål, ligesom man med det samme antal spørgsmål kan måle mere præcist og derved gennemføre undersøgelser med færre deltagere.

Disse åbenlyse fordele og muligheder har medført, at det amerikanske National Institutes of Health med en meget stor forskningsbevilling har igangsat projektet Patient-Reported Outcomes Measurement Information System (PROMIS) [13]. PROMIS forventes sammen med andre projekter i løbet af de kommende få år at føre til en metodemæssig revolution, hvor fremtidens spørgeskemaer vil være interaktive og computerbaserede og bygge på IRT.

Med mindre komplicerede metoder som analyser for differential item functioning (»DIF-analyser«) (tidligere kaldet test for item bias) undersøger man også samspillet mellem spørgsmålene på en mere informativ måde end med de klassiske metoder, der er baseret på korrelationer.

Således kan man belyse sammenhængene mellem spørgsmålene i en multiitemskala og eksterne variabler og bl.a. se, om de trækker i samme retning, og om spørgsmålene fungerer på samme måde i forskellige undergrupper af den undersøgte population [10, 14-16]. Er det ikke tilfældet, kan der opstå tab eller fordrejning af information og bias ved sammenligninger på tværs af undergrupper. Med DIF-metoder kan man også udforske oversættelser af spørgeskemaer [17, 18] og kulturelle forskelle [19].

Reliabilitet

Hvor høj validitet svarer til fravær af systematisk målefejl, svarer høj reliabilitet til fravær af tilfældig (usystematisk) målefejl (Figur 1 ). Lav reliabilitet kan opvejes ved at øge deltagerantallet, mens dette ikke gælder for manglende validitet.

Gentagelighedsreliabilitet

Opnås der samme svar ved gentagne målinger? Dette kan undersøges ved en test-retest -undersøgelse, hvor et spørgeskema besvares to gange med et passende interval [1, 3]. Intervallet skal være langt nok til, at personen ikke blot reproducerer sine svar ud fra hukommelsen, men samtidig så kort, at egenskaben, der undersøges, ikke har ændret sig [1, 3]. Da mange af de egenskaber, der indgår i undersøgelser af helbredsrelateret livskvalitet ændrer sig konstant, er det sidste krav ikke let at opfylde. Anvendeligheden af test-retest -studier afhænger derfor af, hvor konstant fænomenet er.

Cronbachs alpha

Cronbachs alpha er en hyppigt anvendt koefficient med værdier fra nul til en [1, 3, 20]. Værdien afspejler både antallet af items og korrelationen mellem items. Mange items og høj korrelation (altså stærk sammenhæng mellem svarene) fører til en høj værdi [2], som tolkes som høj reliabilitet eller høj »intern konsistens«. Cronbachs alpha for en skala bestående af mange vidt forskellige spørgsmål kan være høj, på trods af at mange af spørgsmålene er lavt korreleret [2]. Det fortolkes somme tider som værende udtryk for, at det er meningsfuldt at samle spørgsmål, der måler vidt forskellige emner, i en multiitemskala, men dette er en misforståelse af metoden, der har som forudsætning, at spørgsmålene måler det samme. Der er yderligere problemer med tolkning og anvendelse af Cronbachs alpha, hvilket, som citeret af Fayers , førte til, at Cronbach selv kort før sin død advarede mod ukritisk brug af den [2]. Fayers anbefaler i stedet beregning af standard error of the mean (SEM) [2].

Andre relevante begreber

Begrebet responsiveness beskriver et spørgeskemas egnethed til at opfange ændringer over tid og er således en praktisk afprøvning af, om metoden giver tilstrækkelige udslag [2, 21]. En sammenligning af forskellige skemaers anvendelighed til at opfange klinisk betydningsfulde hændelser, såsom f.eks. reduktionen i symptomatologi fra syg til rask, kan være en god hjælp ved valg mellem metoder.

Når spørgeskemaers multiitemskalaer bearbejdes til samlede scorer, står brugeren med det problem, at man har fået nye, abstrakte talskalaer, der ikke giver nogen umiddelbar mening. Dette problem har af født forskning i kliniske fortolkninger af scorer, hvor de bl.a. kobles til kliniske scenarier [22]. Tilsvarende udforskes den minimale betydningsfulde forskel [22-24]: Hvor stor en ændring skal der til for, at forskellen har en reel betydning?

Begrebet response-shift beskriver den problematik, at patienternes opfattelse af de fænomener, som måles med livskvalitetsspørgeskemaer, kan ændre sig over tid. Dette må medtænkes i forskningsdesign [25-27].

Diskussion

I hvor høj grad skal et spørgeskema valideres og hvordan? Valget afhænger bl.a. af: 1) undersøgelsens ambitionsniveau - er det en lille, indledende survey , eller en stor, klinisk kontrolleret undersøgelse? 2) Er det nyudvikling af et spørgeskema eller brug af et standardspørgeskema? og 3) Er det konkrete, veldefinerede begreber eller vage, subjektive og teoretisk uklare begreber?

Det betaler sig ofte at bruge kræfter på den indholdsmæssige validitet. En grundig pilottestning af såvel spørgeskema som dataindsamlingsmetode er i reglen også anbefalelsesværdig. Mere dybtgående validitetsundersøgelser kan eksempelvis anbefales til ph.d.-projekter. Konstruktion af multiitemskalaer forudsætter tilstrækkelig metodemæssig/statistisk kompetence. Er den ikke tilgængelig, er det bedre at foretage analyser på enkeltspørgsmålsniveau.

Det kan stærkt anbefales at bruge velundersøgte spørgeskemaer, f.eks. det meget udbredte almene helbredsstatusspørgeskema Short Form (SF)-36 [28-30] eller sygdomsspecifikke skemaer. Man bør kun udvikle egne spørgeskemaer, såfremt man ikke kan finde et godt standardspørgeskema, og man har tilstrækkelig tid til at gøre det grundigt. Det kan det dog være hensigtsmæssigt at supplere et standardskema med enkelte studiespecifikke spørgsmål.

Selv anvendelse af det mest velvaliderede standardspørgeskema vil aldrig kunne garantere valide resultater. Måske er fokus helt forkert, eller måske fungerer spørgsmålene ikke i den konkrete sammenhæng. Brugen af et standardspørgeskema fritager således ikke forskeren for arbejdet med bl.a. at sikre, at indholdet er det rette til at besvare forskningsspørgsmålet.

Spørgeskemaer bør ikke udelukkende udvælges ud fra deres dokumenterede videnskabelige kvalitet. Det er også vigtigt at vurdere, hvor meget skemaet er brugt af andre forskere på området, om der er relevante referencematerialer, om der er udviklet standardiserede scoringsprocedurer og medfølgende computerprogrammer, og om der er lavet kvalitetssikrede, officielle oversættelser.

Den videnskabelige kvalitet af livskvalitetsundersøgelser afhænger af meget andet end selve spørgeskemaet. Det største problem er formentlig ufuldstændige data som følge af manglende spørgeskemaer, hvilket kan besværliggøre analyserne så meget, at de må opgives.

Ser man overordnet på livskvalitetsforskningen, er der sket en massiv udvikling gennem de seneste 30 år. Der er nu en velbeskrevet og relativt avanceret forskningsmetodologi, mindst et metodetidsskrift (Quality of Life Research) og årlige metodeorienterede konferencer i International Society of Quality of Life Research. Senest har den amerikanske Food and Drug Administration for spørgeskemaer til anvendelse ved medicinafprøvning udgivet et udkast til detaljerede metodologiske retningslinjer[31], som formentlig vil få stor gennemslagskraft.

Samlet kan man sige, at forskningsmetoderne i livskvalitetsforskningen nu er velbeskrevne. Generelt er kvaliteten opadgående [32]. Der er stadig mange udfordringer, men det vigtigste er fortsat, at forskningsspørgsmålene er klare og væsentlige, at spørgeskemaerne giver svar på forskningsspørgsmålene, og at spørgeskemaerne bliver besvaret.


Mogens Grønvold, Forskningsenheden, Palliativ Medicinsk Afdeling, Region H, Bispebjerg Hospital, DK-2400 København NV. E-mail: mg02@bbh.regionh.dk

Antaget: 9. januar 2008

Interessekonflikter: Ingen


  1. Nunnally JC, Bernstein IH. Psychometric Theory. 3rd ed. New York: McGraw-Hill, Inc., 1994.
  2. Fayers PM, Machin D. Quality of life: the assessment, analysis, and interpretation of patient-reported outcomes. 2nd ed. Chichester, UK: Wiley, 2007.
  3. Streiner DL, Norman GR. Health measurement scales - a practical guide to their development and use. 2. ed. Oxford: Oxford University Press, 1995.
  4. Feinstein AR. Clinimetrics. New Haven: Yale University Press, 1987.
  5. Watt T, Feldt-Rasmussen U, Rasmussen ÅK et al. Måling af helbredsrelateret livskvalitet hos patienter med thyroideasygdomme. Ugeskr Læger 2008;170:850-2.
  6. Willis G, Reeve BB, Barofsky I. The use of cognitive interviewing techniques in quality-of-life and patient-reported outcomes assessment. I: Lipscomb J, Gotay CC, Snyder C, red. Outcomes assessment in cancer: measures, methods, and applications. Cambridge: Cambridge University Press, 2005:610-22.
  7. Tourangeau R, Rips LJ, Rasinski K. The psychology of survey response. Cambridge: Cambridge University Press, 2000.
  8. Aaronson NK, Ahmedzai S, Bergman B et al. The European Organization for Research and Treatment of Cancer QLQ-C30: a quality-of-life instrument for use in international clinical trials in oncology. J Natl Cancer Inst 1993;85: 365-76.
  9. Groenvold M, Klee M, Sprangers MAG, Aaronson NK. Validation of the EORTC QLQ-C30 quality of life questionnaire through combined qualitative and quantitative assessment of patient-observer agreement. J Clin Epidemiol 1997;50:441-50.
  10. Grønvold M, Bjørner JB, Klee MC et al. Test for item bias in a quality of life questionnaire. J Clin Epidemiol 1995;48:805-16.
  11. Bjorner JB, Damsgaard MT, Watt T et al. Tests of data quality, scaling assumptions, and reliability of the Danish SF-36. J Clin Epidemiol 1998;51: 1001-11.
  12. Revicki DA, Cella DF. Health status assessment for the twenty-first century: item response theory, item banking and computer adaptive testing. Qual Life Res 1997;6:595-600.
  13. Reeve BB, Hays RD, Bjorner JB et al. Psychometric evaluation and calibration of health-related quality of life item banks: plans for the Patient-Reported Outcomes Measurement Information System (PROMIS). Med Care 2007;45:S22-S31.
  14. Grønvold M, Petersen MAa. The role and use of differential item functioning (DIF) analysis of quality of life data from clinical trials. I: Fayers P, Hays R, red. Assessing quality of life in clinical trials. 2nd ed. Oxford: Oxford University Press, 2005:195-208.
  15. Avlund K, Era P, Davidsen M et al. Item bias in self-reported functional ability among 75-year-old men and women in three Nordic localities. Scand J Soc Med 1996;24:206-17.
  16. Kreiner S. Validation of index scales for analysis of survey data: the Symptom Index. I: Dean K, red. Population health research: linking theory and methods. London: SAGE Publications, 1993

Referencer

  1. Nunnally JC, Bernstein IH. Psychometric Theory. 3rd ed. New York: McGraw-Hill, Inc., 1994.
  2. Fayers PM, Machin D. Quality of life: the assessment, analysis, and interpretation of patient-reported outcomes. 2nd ed. Chichester, UK: Wiley, 2007.
  3. Streiner DL, Norman GR. Health measurement scales - a practical guide to their development and use. 2. ed. Oxford: Oxford University Press, 1995.
  4. Feinstein AR. Clinimetrics. New Haven: Yale University Press, 1987.
  5. Watt T, Feldt-Rasmussen U, Rasmussen ÅK et al. Måling af helbredsrelateret livskvalitet hos patienter med thyroideasygdomme. Ugeskr Læger 2008;170:850-2.
  6. Willis G, Reeve BB, Barofsky I. The use of cognitive interviewing techniques in quality-of-life and patient-reported outcomes assessment. I: Lipscomb J, Gotay CC, Snyder C, red. Outcomes assessment in cancer: measures, methods, and applications. Cambridge: Cambridge University Press, 2005:610-22.
  7. Tourangeau R, Rips LJ, Rasinski K. The psychology of survey response. Cambridge: Cambridge University Press, 2000.
  8. Aaronson NK, Ahmedzai S, Bergman B et al. The European Organization for Research and Treatment of Cancer QLQ-C30: a quality-of-life instrument for use in international clinical trials in oncology. J Natl Cancer Inst 1993;85: 365-76.
  9. Groenvold M, Klee M, Sprangers MAG, Aaronson NK. Validation of the EORTC QLQ-C30 quality of life questionnaire through combined qualitative and quantitative assessment of patient-observer agreement. J Clin Epidemiol 1997;50:441-50.
  10. Grønvold M, Bjørner JB, Klee MC et al. Test for item bias in a quality of life questionnaire. J Clin Epidemiol 1995;48:805-16.
  11. Bjorner JB, Damsgaard MT, Watt T et al. Tests of data quality, scaling assumptions, and reliability of the Danish SF-36. J Clin Epidemiol 1998;51: 1001-11.
  12. Revicki DA, Cella DF. Health status assessment for the twenty-first century: item response theory, item banking and computer adaptive testing. Qual Life Res 1997;6:595-600.
  13. Reeve BB, Hays RD, Bjorner JB et al. Psychometric evaluation and calibration of health-related quality of life item banks: plans for the Patient-Reported Outcomes Measurement Information System (PROMIS). Med Care 2007;45:S22-S31.
  14. Grønvold M, Petersen MAa. The role and use of differential item functioning (DIF) analysis of quality of life data from clinical trials. I: Fayers P, Hays R, red. Assessing quality of life in clinical trials. 2nd ed. Oxford: Oxford University Press, 2005:195-208.
  15. Avlund K, Era P, Davidsen M et al. Item bias in self-reported functional ability among 75-year-old men and women in three Nordic localities. Scand J Soc Med 1996;24:206-17.
  16. Kreiner S. Validation of index scales for analysis of survey data: the Symptom Index. I: Dean K, red. Population health research: linking theory and methods. London: SAGE Publications, 1993:116-44.
  17. Bjorner JB, Kreiner S, Ware JE et al. Differential item functioning in the Danish translation of the SF-36. J Clin Epidemiol 1998;51:1189-202.
  18. Petersen MA, Grønvold M, Bjørner JB, et al. Use of differential item functioning analysis to assess the equivalence of translations of a questionnaire. Qual Life Res 2003;12:373-85.
  19. Scott NW, Fayers PM, Aaronson NK et al. The use of differential item functioning analyses to identify cultural differences in responses to the EORTC QLQ-C30. Qual Life Res 2007;16:115-29.
  20. Grønvold M. Validation of a quality of life questionnaire for breast cancer patients [ph.d.-afhandl]. København: Københavns Universitet, 1996.
  21. Guyatt GH, Deyo RA, Charlson M et al. Responsiveness and validity in health status measurement: a clarification. J Clin Epidemiol 1989;42:403-8.
  22. Lydick E, Epstein RS. Interpretation of quality of life changes. Qual Life Res 1993;2:221-6.
  23. Guyatt GH, Walter S, Norman G. Measuring change over time: assessing the usefulness of evaluative instruments. J Chron Dis 1987;40:171-8.
  24. Osoba D, Rodrigues G, Myles J et al. Interpreting the significance of changes in health-related quality-of-life scores. J Clin Oncol 1998;16:139-44.
  25. Breetvelt IS, van Dam FSAM. Underreporting by cancer patients: the case of response-shift. Soc Sci Med 1991;32:981-7.
  26. Sprangers MA, Schwartz CE. The challenge of response shift for quality-of-life-based clinical oncology research. Ann Oncol 1999;10:747-9.
  27. Sprangers MA, Schwartz CE. Integrating response shift into health-related quality of life research: a theoretical model. Soc Sci Med 1999;48:1507-15.
  28. Bjørner JB, Damsgaard MT, Watt T et al. Dansk manual til SF-36 - et spørgeskema om helbredsstatus. København: Lif, 1997.
  29. Ware JE, Snow KK, Kosinski M et al. The SF-36 health survey. Manual and interpretation guide. Boston: The Health Institute, New England Medical Center, 1993.
  30. Ware JE, Gandek B. The SF-36 health survey: Development and use in mental health research and the IQOLA project. Int J Ment Health 1994;23:49-73.
  31. www.fda.gov/CDER/GUIDANCE/5460dft.pdf /feb 2008
  32. Efficace F, Osoba D, Gotay C et al. Has the quality of health-related quality of life reporting in cancer clinical trials improved over time? Ann Oncol 2007;18:775-81.