Det er yderst velkomment, at Jens Christian Djurhuus går ind i debatten og giver sin mening til kende om fordelingen af de tidsskrifter, der er valgt til at repræsentere hans fag - urologi - på autoritetslisten i den bibliometriske indikator [1].
Fagligt Udvalg ser meget gerne en åben diskussion af det faglige indhold i indikatoren, da det vil være med til at øge kvaliteten, hvis flere forskere interesserer sig for, hvilke tidsskrifter og forlag som tæller med i den bibliometriske indikator, og hvilke som skal have en særlig vægt.
Det er 67 faggrupper repræsenterende mere end 250 forskere, som har stået for at udarbejde listerne inden for deres egne fagområder. Vi har i langt de fleste tilfælde oplevet, at faggrupperne har arbejdet seriøst og grundigt med at få de rigtige tidsskrifter på listerne og efterfølgende inddele dem i de to niveauer.
Helt specifikt kommenterer Djurhuus de tidsskrifter, som er med på autoritetslisten inden for urologi. Det er korrekt, at disse tidsskrifter er med på listerne. Det har faggruppen valgt. Nu er det jo heldigvis sådan, at listerne ikke er hugget i sten. De er dynamiske, og det er derfor muligt at komme med forslag til faggrupperne om ændringer, også selv om man ikke sidder med i en faggruppe. Det gælder både forslag til tidsskrifter og forlag og til deres niveauplacering. Det har vi også for nylig meldt ud i et brev til samtlige institutlederne på de danske universiteter.
Djurhuus nævner ISI Web of Science's Journal Impact Factor - forkortet JIF. Det har nogle faggrupper brugt aktivt i niveauinddelingen af tidsskrifter. Vi støtter, at faggrupperne benytter sig af JIF som redskab i de fag, hvor de finder, det er relevant. Men JIF kan ikke være selve kriteriet for niveauinddelingen, alene af den grund at en betydelig del af tidsskrifterne på autoritetslisten slet ikke findes på ISI's web of science.
Vi håber, at Djurhuus, og gerne mange flere forskere, løbende vil følge med i arbejdet med indikatoren, og at de vil give fagligt respons videre til kollegerne i faggrupperne. Det vil i høj grad berige arbejdet med indikatoren og højne kvaliteten af autoritetslisten.
-
Djurhuus JC. Pengene følger pointerne, og min urin frøs til is. Ugeskr Læger 2010;172:314.
> Svar af
♠ Institutleder Jens Chr. Djurhuus, Klinisk Institut, Aarhus Universitet, Århus Universitetshospital, Skejby E-mail: jcd@ki.au.dk
Det Faglige Udvalg efterlyser en mere faglig debat om indikatoren. Det var også mit ærinde, at der via et barokt eksempel kunne fremprovokeres en løbende debat om indikatoren, om processen og om effekten. Man kunne fristes til at håbe, at der sideløbende med udvikling af indikatoren blev forsket i disse tre aspekter.
Det overordnede formål med at indføre indikatoren må være, at det skal være konstruktivt for dansk forskning og ikke destruktivt, og at bibliometri fortsætter med at være et nyttigt redskab og ikke undergår en metamorfose til et weapon of mass destruction.
Vi har mere end nogensinde behov for at forskningsinstitutionerne samarbejder, og derfor er ethvert tiltag, der tenderer til at skabe splittelse, uønsket. Der skal være en kappestrid, men en kappestrid, der ikke forhindrer samarbejde. Sidste forår var der i dagspressen kritiske toner fra RUC og den tidligere rektor på CBS, der anklagede mit institut for at anvende en registrering, der grænsede til svindel, fordi de ikke forstod, at al forskning ved Århus Universitetshospital er universitetsforskning. Man havde nok heller ikke forstået, at den bibliometriske »krig« er en »krig« mellem hovedområder.
En ting er eventuelle konflikter mellem institutioner om rigtigheden af de opgørelser, der i fremtiden vil ligge til grund for pengefordelingen. En anden ting er, at de forskere, der producerer pointene, skal kunne se fornuften i at registrere, og hvad der skal registreres. Og det var her min provokation kom, for hvis forskerne, ikke mindst inden for sundhedsvidenskab, ikke kan se fornuften i registreringerne, herunder kan se hvilken betydning det har for dem, har ikke mindst jeg som institutleder et problem, fordi jeg er forpligtet til at behandle indikatoren så seriøst som overhovedet muligt.
Det Faglige Udvalg nævner, at der bruges meget krudt på indikatoren, og at processen omkring indikatoren er the never ending story. De opfordrer til, at man kontakter de personer, der sidder i faggrupperne. Det har jeg faktisk gjort, hvilket afslørede, at der er visse usikkerheder i processen.
Siden jeg begyndte at interessere mig for bibliometri og ikke mindst i forbindelse med de opgørelser, der blev sat i værk, mens jeg sad i Statens Sundhedsvidenskabelige Forskningsråd, har jeg vidst, at Journal Impact Factor ikke er den fulde sandhed. Den siger ikke noget om den enkelte forsker, og den kan være udsat for manipulation. Når jeg anvendte den i mit indlæg, var det kun for at understrege den tragikomiske »kanon« inden for kirurgi. Lad os håbe, at forskere inden for alle felter af og til vil kaste et kritisk blik på listen - det var faktisk det, der var mit ærinde. Det skal imidlertid altid ses i en balance, for man kan jo komme til at bruge så meget krudt på den slags ting, at man efterhånden sætter forskningen helt i stå.