Das Karriereportal für Wissenschaft & Forschung von In Kooperation mit DIE ZEIT Forschung und Lehre

Rankings - nicht seriös?

Interview: MARTIN SPIEWAK

Rankings seien eine Gefahr für die wissenschaftliche Vielfalt: Ein Gespräch mit dem Mediziner Karl-Max Einhäupl, Chef der Charité.

Rankings - nicht seriös?© CharitéKarl-Max Einhäupl findet, dass Rankings über die Qualität einer wissenschaftlichen Einrichtung nicht viel aussagen können
DIE ZEIT: Alle schimpfen über Rankings, jeder liest sie. Die Friedrich-Ebert-Stiftung veröffentlicht nun eine Expertise, die zu großer Vorsicht im Umgang mit den Ranglisten mahnt. Sie haben an den Empfehlungen mitgearbeitet. Wann haben Sie sich als Chef der Charité in Berlin das letzte Mal über Rankings geärgert?

Karl-Max Einhäupl: Als kürzlich im Deutschen Ärzteblatt ein Leserbrief erschien, in dem behauptet wurde, die Charité sei wissenschaftlich gar nicht so hervorragend, wie immer gesagt wird. Das würden Rankings belegen. Das fand ich ärgerlich.

ZEIT: Weil es nicht stimmt?

Einhäupl: Zum einen, weil die Aussage falsch war: In allen Rankings taucht die Charité sehr weit oben auf. Zum anderen, weil die Position in einer Rangliste über die Qualität einer wissenschaftlichen Einrichtung nicht viel aussagt.

ZEIT: Warum nicht?

Einhäupl: Rankings vermitteln den Anspruch, wissenschaftliche Leistungen exakt zu messen. Dabei reduzieren gerade die internationalen Rankings die Wirklichkeit in unzulässiger Weise. Sie erfassen quantitative Indikatoren - Zahl der Publikationen, Fördergelder, Ansehen bei den Professoren - über alle Fächer, rühren sie zusammen und erstellen daraus einen Wert, der den Platz im Ranking bestimmt. Das ist nicht seriös.

ZEIT: Ärgert die meisten Universitäten hierzulande nicht viel mehr, dass sie in der Regel unter »ferner liefen« abschneiden?

Einhäupl: Sie ärgern sich zu Recht, weil die Rankings, ob sie nun aus Shanghai oder, wie die World University Rankings der Times, aus England stammen, Länder wie Deutschland benachteiligen. So findet anders als etwa in den USA ein großer Teil der Forschung bei uns in Max-Planck- Instituten oder Einrichtungen der Helmholtz- Gesellschaft statt. Die außeruniversitäre Forschung wird jedoch in den Rankings nicht erfasst.

ZEIT: Das wäre doch ein weiterer Grund, diese Einrichtungen den Universitäten anzugliedern, wie Experten schon lange fordern.

Einhäupl: Für eine bessere Zusammenarbeit spricht einiges: Die Charité strebt das ja in Berlin gerade mit dem Max-Delbrück-Centrum für Molekulare Medizin an. Aber das Ziel der Kooperation ist doch nicht, in den Rankings besser abzuschneiden. Wir sollten das Profil unseres Wissenschaftssystems nicht von irgendwelchen Ranglisten bestimmen lassen.

ZEIT: Sie tragen aber zur internationalen Sichtbarkeit von Forschungseinrichtungen bei.\
Einhäupl: Sichtbarkeit ist ohne Zweifel wichtig. Eine Institution mit einem hohen Bekanntheitsgrad wie etwa die Charité hat Vorteile bei der Rekrutierung guter Wissenschaftler. Ich würde das aber auch nicht überschätzen. Den einzelnen Forscher interessiert viel mehr, was eine Universität in seinem Fach leistet und wie das wissenschaftliche Umfeld aussieht. Diese Komplexität wird in Rankings ignoriert, und damit werden sie sogar zum Risiko.

ZEIT: Inwiefern?

Einhäupl: Weil sie den Mainstream fördern. Ein Beispiel aus der Medizin: Manche Rankings berücksichtigen stark die Zahl der Artikel in Nature oder Science. Nun gelangt man sehr viel leichter in diese internationalen Zeitschriften mit Forschungsergebnissen aus der Molekularbiologie, weil die gerade boomt. Die Versuchung ist nun groß, alle Kräfte auf die Molekularbiologie zu konzentrieren, um in Rankings gut abzuschneiden. Das hieße aber, andere Zweige der Medizin zu vernachlässigen, die ebenso wichtig sind.

ZEIT: Aber gerade die Mediziner sind doch extrem zahlengläubig. Wenn die Charité einen neuen Professor beruft, dann schauen Sie doch auch zuerst darauf, in welchen Zeitschriften er veröffentlicht hat und wie oft er zitiert wird.

Einhäupl: Hohe Publikationsraten sind wichtig, in der Medizin vielleicht zu wichtig. Aber uns interessiert ebenso, wo der Professor in der Autorenliste erscheint: Taucht sein Name immer als Erstautor auf, könnte das für Fleiß und Originalität sprechen, aber auch dafür, dass er seine Mitarbeiter für sich arbeiten lässt und sich in der Veröffentlichung stets nach vorne drängt. Dann wäre eine hohe Publikationsrate eher ein schlechtes Zeichen.

ZEIT: Wenn Rankings so viele Mängel haben, warum beschäftigen Sie sich dann mit ihnen?

Einhäupl: Weil die Öffentlichkeit und vor allem die Politiker sie lesen und wir von beiden durchaus abhängig sind. Politiker versprechen sich von Rankings etwa Hinweise darauf, wie sie die Steuergelder verteilen sollen. Da hilft uns ein guter Platz im Ranking schon.

ZEIT: Zu Ihnen kommt der Berliner Wissenschaftssenator Zöllner und fragt: Herr Einhäupl, warum ist die Charité nicht auf Platz eins?

Einhäupl: Herr Zöllner ist Experte genug, um mit Ranglisten differenziert umzugehen. Aber mit anderen Politikern führen wir solche Gespräche.

ZEIT: Wäre eine Welt ohne Rankings besser?

Einhäupl: Rankings sind nicht mehr aus der Welt zu schaffen. Denn Wettbewerb ist der Motor der Wissenschaft, und Rankings sind eine einfache Methode, die Unterschiede zwischen Universitäten abzubilden. Es ist ja zudem nicht so, dass eine Hochschulspitze mit den Zahlen nichts anfangen kann. Wenn ich zum Beispiel erfahre, dass die Wissenschaftler anderer Universitätsklinika mehr Fördergelder einwerben als die Charité, frage ich mich natürlich, warum das so ist. Aber die Schlussfolgerung kann nicht sein, nur noch nach Drittmitteln zu jagen. Es kommt auf den seriösen Umgang mit den Ergebnissen an. Da sind Öffentlichkeit wie Politik oft überfordert.

ZEIT: Jetzt plant auch die Europäische Kommission ein eigenes Universitätsranking für Europa. Wie sollte dieses Ranking aussehen?

Einhäupl: Es muss die Forschung in den Blick nehmen. Die Qualität der Lehre zu erfassen ist schon im nationalen Rahmen sehr schwierig, wie die Kritik am Ranking des Centrums für Hochschulentwicklung zeigt (Anm. d. Red.: Es wird von der ZEIT veröffentlicht). Zum anderen sollte ein europäischer Leistungsvergleich nicht ganze Hochschulen einander gegenüberstellen, sondern einzelne Fächer. Um hier zu validen Aussagen zu kommen, darf man sich zudem nicht allein auf Zahlen verlassen. Ebenso wichtig ist das Peer-Review, das heißt, geeignete Wissenschaftler müssen sich ein Urteil über die Einrichtung bilden - nicht per Ferndiagnose, sondern vor Ort.

ZEIT: Das hört sich sehr aufwendig an.

Einhäupl: Ein gutes Ranking muss der Komplexität von Wissenschaft Rechnung tragen. Für alle Fächer wird das nicht leistbar sein. Deshalb sollte man sich auf einige wenige Disziplinen konzentrieren. Will man das nicht leisten, sollte man sich die Kosten für ein solches Unternehmen sparen.

Die Studie »Rankings im Wissenschaftssystem« findet man im Internet unter www.fes.de»


Aus DIE ZEIT :: 25.08.2011

Ausgewählte Artikel
Ausgewählte Stellenangebote