DZSM-MITTEILUNG

Seite 2 / 2

Fortsetzung Schluss mit der „Tonnenideologie“ in der medizinischen Forschung! Qualität, nicht Quantität ist wichtig

Welche Veröffentlichungen werden besonders häufig (aber nicht unbedingt bald) zitiert?

1. Bedeutende Erkenntnisse oder Theorien
Diese Arbeiten brauchen oft Zeit, bis sie anerkannt werden. Manchmal erweist sich eine angeblich wichtige Neuigkeit nach ein paar Jahren auch als Flopp wie der angebliche Autismus nach Masernimpfung in einem Lancet-Artikel.

2. Methodische Fortschritte
Auch hier dauert es oft, bis sie in anderen Labors eingesetzt und danach zitiert werden können.

3. Übersichtsarbeiten (Reviews)
Sie werden oft zitiert; bedeutend sind sie aber nur, wenn neue Zusammenhänge erkannt werden (häufig, aber nicht nur durch Meta-Analysen). All dies verringert die Brauchbarkeit des Impact-Faktors vor allem für 2 Jahre.

Ein besonderes Problem ist die Schiefverteilung der Zitationen (6). Wenige Artikel werden üblicherweise sehr häufig zitiert, die meisten selten oder gar nicht. Mit einem überhaupt nicht zitierten Artikel in Nature oder Lancet bekomme ich trotzdem den Wert 40 bzw. 48 für meine Impactsumme. Wie kann man den Impact-Faktor auf nicht ganz redliche Weise vergrößern? In einem Institut mit verschiedenen Arbeitsgruppen werden oft gegenseitig Forscher als Autoren aufgenommen, die eigentlich nicht beteiligt sind. Und der Chef ist sowieso fast immer dabei: Richtig, wenn er anregt und überprüft, unangebracht, wenn er nichts dazu tut. Ein besonders schlechter Weg sind sogenannte Zitierkartelle, wenn sich verschiedene Forschergruppen gegenseitig zum Zitieren
verabreden.

Je höher die Summe der Impact-Faktoren, desto höher war in den vergangenen Jahren häufig die Wahrscheinlichkeit, eine Professur oder Drittmittel zu bekommen. Soziologen haben für die Vorliebe für wissenschaftliche Massenproduktion den Begriff der „Tonnenideologie“ erfunden (8).

Der Hirsch-Index

Um verschiedene Nachteile des Impact-Faktors zu vermeiden, hat der amerikanische Physiker Jorge E. Hirsch einen Index vorgeschlagen (Hirsch-Index h), der personenbezogen ist (4). Man sortiert die Veröffentlichungen eines Autors nach der Zitierhäufigkeit. Die höchstzitierte Arbeit bekommt die Nummer 1, die anderen folgen nach absteigender Zitierhäufigkeit. Ein Wissenschaftler bekommt als Hirsch-Index den Wert, für den die Nummer mit der Zahl der Zitierungen übereinstimmt. Z. B. bedeutet h=10, dass die 10. Veröffentlichung zehnmal zitiert wurde. Der Index ähnelt daher nicht dem arithmetischen Mittel, sondern eher dem Medianwert.

Der Vorteil gegenüber dem Impact-Faktor ist, dass der Hirsch-Index nicht zeitschriften-, sondern autorbezogen ist. Damit endet aber schon fast die Brauchbarkeit. Der erste Nachteil ist, dass es 3 verschiedene Versionen gibt. Die niedrigsten Werte bekommt man mit SCOPUS, einer Abstract- und Zitationsdatenbank, die (mit Ausnahmen) nur bis 1996 zurückverfolgt. Man muss auch selbst darauf achten, dass verschiedene Namensversionen (in meinem Fall nicht nur Böning, sondern auch Boning, Boening, Bœning in englischen Artikeln) einbezogen werden. Am häufigsten wird das Web of Science benutzt, das meist etwas höhere Werte liefert; es berücksichtigt aber keine Bücher oder Buchkapitel. Die höchsten Werte bekommt man bei Google Scholar.

Weitere Eigenschaften machen den Hirsch-Index fast genauso ungeeignet wie den Impact-Faktor. Er beschreibt bevorzugt die Mittelmäßigkeit, nicht unbedingt die Exzellenz. Ob die wichtigste Veröffentlichung eines Autors 1000 Mal oder 50 Mal zitiert wurde, ist aus dem Hirsch-Index nicht ersichtlich. Und ob seine Thesen richtig oder falsch sind, erschließt sich ebenfalls nicht aus der Zitierhäufigkeit. Ich habe im Laufe der Jahre eine Reihe von typischen Fehlern in teils hochzitierten Veröffentlichungen gefunden (3). Und lässt sich ein behaupteter Effekt nicht reproduzieren, kann das auch öfters in der Literatur diskutiert werden.

Sicherlich haben viele bekannte Wissenschaftler, besonders in Physik oder Biowissenschaften, einen hohen Hirsch-Index um die 100 (z. B. Stephen Hawking). Aber selbst bei Nobelpreisträgern der Medizin gibt es auch bescheidene Werte von 20 noch nach der Preisverleihung (5). Und Peter Higgs, der das Higgs-Teilchen vorhergesagt hat (Nobelpreis für Physik 2013) hat den kläglichen Wert von 11! Ich schlage daher vor, auch den Hirsch-Index zu vergessen – obwohl es mich persönlich trifft. Mein h-Wert ist nämlich höher als der einiger Nobelpreisträger.

■ Böning D

Quellen:

  1. Académie des Sciences LaRS. Statement by three national academies (Académie des Sciences, Leopoldina and Royal Society) on good practice in the evaluation of researchers and research programmes. 2017, p. 1-4. https://www.leopoldina.org/uploads/tx_leopublication/2017_Statement_3Acad_Evaluation.pdf [16th March 2013].

  2. Böning D. Publizieren in der DZSM lohnt sich! Dtsch Z Sportmed. 2013; 64: 95. doi:10.5960/dzsm.2012.066

  3. Böning D. Scientific progress or regress in Sports Physiology? Int J Sports Physiol Perform. 2016; 11: 1106-1110. doi:10.1123/IJSPP.2016-0289

  4. Hirsch JE. An index to quantify an individual‘s scientific research output. Proc Natl Acad Sci USA. 2005; 102: 16569-16572. doi:10.1073/pnas.0507655102

  5. Kreiner G. The slavery of the h-index—measuring the unmeasurable. Front Hum Neurosci. 2016; 10: 556. doi:10.3389/fnhum.2016.00556

  6. Osterloh MF, Bruno S. Absurde Mess-Manie. Der fragwürdige Impact des Impact-Faktors. Forschung & Lehre. 2017; 24: 876-878.

  7. Strohschneider P. Über Wissenschaft in Zeiten des Populismus. In: Jahrestagung der DFG. Halle/Saale: 2017. http://www.dfg.de/dfg_magazin/querschnitt/171218_rede_des_jahres/index.jsp

  8. Strübing J. Problem, Lösung oder Symptom? Zur Forderung nach Replizierbarkeit von Forschungsergebnissen. Forschung & Lehre. 2018; 25: 102-105.