Navigation auf uzh.ch
Bei der Beurteilung akademischer Forschung spielen Zahlen heute eine zentrale Rolle. Die Anzahl publizierter Papers, die Menge der Zitationen und insbesondere auch der Impact Factor des Journals, in dem man publiziert, gelten heute als wichtige Indikatoren für wissenschaftliche Leistungen. In der wissenschaftlichen Community wird dies häufig kritisch diskutiert – so auch am vierten Netzwerktreffen zum Aktionsplan Chancengleichheit 2017-20, das letzte Woche von der Abteilung Gleichstellung und Diversität der UZH organisiert wurde.
Als Referent war Stephen Curry, Professor für Strukturbiologie und Provost für Gender, Equality und Inclusion am Imperial College London eingeladen. Er sprach als Vorsitzender des Lenkungsausschusses der San Francisco Declaration on Research Assessment (DORA), einer Initiative, die sich gegen einen starken Fokus auf Parameter wie den Journal Impact Factor und für eine ganzheitlichere Beurteilung wissenschaftlicher Forschung einsetzt.
«Zahlen erscheinen objektiver als eine persönliche Beurteilung, doch das kann täuschen», sagte Curry. Wie oft beispielsweise ein Paper zitiert wird, hängt von zahlreichen subjektiven Entscheidungen ab – und in diese können zum Beispiel geschlechterspezifische Beurteilungsmuster einfliessen. So erwähnte Curry Studien, wonach Selbstzitate bei Männern häufiger vorkommen als bei Frauen.
Curry wies darauf hin, dass ein zu starker Fokus auf aggregierte metrische Daten häufig nicht nur den Wettbewerb um akademische Stellen verzerrt, sondern sich auch negativ auf die Qualität der Forschung auswirken kann: Wird zum Beispiel der Journal Impact Factor bestimmend für den Marktwert von Forschenden, kann dies die Veröffentlichung wichtiger Daten verzögern, weil Forschende mit der Publikation zuwarten, bis sie die Zusage eines Journal mit möglichst hohem Impact Factor haben. «Diese Zusammenhänge sind der Öffentlichkeit jedoch nicht wirklich bewusst», so Curry.
Am Beispiel von neuesten Erkenntnissen zum Zika- und Corona-Virus, die schnell öffentlich geteilt wurden, verdeutlichte Curry, dass die genannte Bewertungspraxis dem öffentlichen Interesse zuwiderläuft. Open Science dagegen ermögliche es, den gesellschaftlichen Nutzen der Wissenschaft zu erhöhen. Nicht nur, weil die Ergebnisse auf diese Weise schneller bekannt würden, sondern auch, weil ein breit abgestützter Review-Prozess die Qualität der Endpublikation steigere, so Curry.
Neben dem Appell für Open Science als Alternative stellte Curry in seinem Vortrag einige Forderungen von DORA vor. «Hochschulen sollen den Inhalt von wissenschaftlichen Papers stärker als die Publikationsmetrik bewerten», steht beispielsweise in der Deklaration, die 2014 auch die UZH unterzeichnete.
Metriken würden wichtige Dimensionen nicht berücksichtigen, die für die Ausübung einer akademischen Position relevant seien, so Curry. Zu diesen zählte er die gesellschaftliche Relevanz der eigenen Forschung, Lehr- und Führungskompetenzen.
«Wir wissen alle, dass eine ganzheitlichere Bewertung wichtig wäre», sagte Curry. In einem hyperkompetitiven Umfeld sei ein Umdenken jedoch schwierig. «Die Forschenden müssen darauf vertrauen können, dass sie Anerkennung für ihre Arbeit erhalten und nicht dafür, wo sie publiziert haben», so Curry.
Als positive Beispiele nannte er etwa das Berufungsverfahren an der Charité in Berlin, wo Bewerbende auch gefragt werden, welchen Beitrag sie zu Open Science leisten. Ähnlich ist es bei der Royal Society: Forschende, die sich hier bewerben, müssen beschreiben, wie sie sich für die Förderung des wissenschaftlichen Nachwuchses engagieren, wie sie die Forschungscommunity unterstützen und was sie zum Wissenstransfer von der Hochschule in die Öffentlichkeit beitragen.
Wissenschaftliche Leistungen fair zu beurteilen sei eine schwierige Aufgabe, sagte Curry. Um gegen stereotype Beurteilungsmuster vorzugehen, empfahl er Schulungen.
Wie anspruchsvoll es ist, wissenschaftliche Leistungen adäquat einzustufen, verdeutlichten auch die zahlreichen kritischen Rückfragen aus dem Publikum. So kam etwa der Einwand, dass die Mitglieder von Findungskommissionen sich zum Teil zu wenig gut im Forschungsgebiet der Kandidaten auskennen würden und deshalb auf quantitative Messwerte angewiesen seien. Curry schlug darauf hin vor, auch einmal externe Experten herbeizuziehen oder Bewerbende ihre Forschung beschreiben zu lassen. Dabei nannte er aber gleich auch das damit verbundene Risiko, dass gute Schreiberinnen und Schreiber bevorteilt würden und fügte an: «Es ist nicht trivial.»