Das Karriereportal für Wissenschaft & Forschung von In Kooperation mit DIE ZEIT Forschung und Lehre

Wie nützlich sind Rankings?

 

Michael Hartmann und Richard Münch zählen zu den profiliertesten Kritikern von Hochschulrankings. Detlef Müller-Böling verantwortet in Kooperation mit der ZEIT das wichtigste. Ein Streitgespräch.

Wie nützlich sind Rankings?: HochschuleDetlef Müller-Böling
DIE ZEIT: Mehr als je zuvor bestimmen Rankings die Hochschuldebatte. Politiker wie Rektoren schielen auf die Ergebnisse. Gleichzeitig wächst die Kritik am Messen und Vergleichen. Nützen oder schaden Rankings den Universitäten?

DETLEF MÜLLER-BÖLING: Sie nützen ihnen, weil Rankings Transparenz schaffen, auf mehreren Ebenen. Mit dem Hochschulranking des CHE...

ZEIT: ...des Centrums für Hochschulentwicklung, das von der Bertelsmann Stiftung und der Hochschulrektorenkonferenz getragen wird...

MÜLLER-BÖLING: ...können Abiturienten die Studienangebote der Universitäten anhand verschiedener Kriterien vergleichen. Das reicht von wissenschaftsfernen Aspekten wie der Durchschnittsmiete am Studienort über die Bibliotheksausstattung bis zur Betreuung der Studenten. Unser Forschungsranking dagegen misst die Forschungsleistung der Studiengänge. Diese Informationen helfen den Hochschulleitungen oder der Politik, Entscheidungen zu treffen.

MICHAEL HARTMANN: Das sind hohe Ansprüche, welche jedoch keines der mir bekannten Rankings einlöst. Ihnen ist ein Grundproblem gemeinsam: Sie müssen das Bedürfnis der Öffentlichkeit befriedigen, ein extrem komplexes Phänomen - die Leistung einer Universität - überschaubar zu bewerten. Daher vereinfachen sie und erzeugen allenfalls eine Scheintransparenz. Zudem lenken sie die Wissenschaft in eine gefährliche Richtung: Forschung, die sich nicht zählen lässt, verliert an Bedeutung. Professoren stellen weniger die Fragen, die sie interessieren, sondern richten ihre Projekte danach aus, was die Position im Ranking verbessert.
RICHARD MÜNCH: Meine Kritik geht in eine andere Richtung. Rankings haben den Anspruch, Wettbewerb zwischen den Hochschulen zu entfachen. Doch in Wahrheit schränken sie ihn ein. In jeder Rangliste muss es wie bei einer Bundesligatabelle Sieger und Verlierer geben. Selbst wenn die Unterschiede zwischen den einzelnen Universitäten minimal sind, sehen sie, auf eine Rangliste übertragen, groß aus. Auf diese Darstellung reagieren die Hochschulleitungen, die Öffentlichkeit und die Politik und richten danach ihr Verhalten aus. Die vermeintlich Guten werden belohnt, die Schlechten bestraft, durch weniger Geld oder geringere öffentliche Aufmerksamkeit. Das heißt, Rankings kreieren erst die Wirklichkeit, die sie vorgeben zu beschreiben. Wer einmal unten ist, hat später kaum eine Chance, aufzusteigen.

MÜLLER-BÖLING: Rankings haben den Wettbewerb doch nicht erfunden. Schon immer galt etwa die Juristenausbildung in Heidelberg als besser als die anderer Hochschulen. Solche Urteile gründeten sich früher jedoch allein auf der Reputation. Rankings stellen den Hochschulvergleich auf eine objektivere Basis, indem sie empirische Daten heranziehen. Da gibt es Überraschungen. Die Universität Bremen galt lange Zeit als wissenschaftlich allenfalls zweitrangig. Dass dieses Image nicht mehr mit der Wirklichkeit übereinstimmt, konnten wir mit unseren Daten zeigen. Grundsätzlich gilt: Bevor man zur Pauschalkritik ansetzt, sollte man sich jedes einzelne Ranking genau anschauen, wie leistungsfähig es ist, was es misst und wie es das tut.
ZEIT: Inwiefern?

MÜLLER-BÖLING: Herr Münch sprach den Vergleich von Universitäten an, Herr Hartmann kritisiert eine unstatthafte Vereinfachung. Beides trifft auf unser Ranking nicht zu. Zum einen vergleichen wir Fächer und nicht ganze Universitäten. Denn wir wissen, dass keine Universität in allen Disziplinen stark ist. Zum anderen ist unsere Datenbasis keineswegs schmal. Immerhin misst unser Hochschulranking bis zu 34 Kategorien pro Studiengang. Ranking ist also nicht gleich Ranking.

HARTMANN: Nehmen wir uns die Kriterien vor. Zum Beispiel im Forschungsranking die Drittmittel, eingeworbene Forschungsgelder also. Sie sind schon deshalb fragwürdig, weil man in den Geistes- und Sozialwissenschaften wunderbar forschen kann, ohne Drittmittel zu beantragen. Dennoch sind Drittmittel in allen Fächern ein zentrales Kriterium für Qualität und Mittelzuweisung.
MÜLLER-BÖLING: Zu Recht. Sie sagen durchaus etwas aus, nämlich dass Forschungsvorhaben als wissenschaftlich vielversprechend eingeschätzt werden und es dafür Geld gibt. Diese Einschätzung geben übrigens keine Bürokraten, sondern Professoren, Kollegen also, die etwas vom Fach verstehen.

MÜNCH: Es stimmt einfach nicht, dass in Drittmittelprojekten automatisch gute Bücher oder Aufsätze entstehen. Genau darum geht es: Was kommt an realer Forschung tatsächlich heraus.

MÜLLER-BÖLING: Richtig. Genau deshalb sind Drittmittel in guten Rankings nur ein Messpunkt unter vielen. Daneben erfassen wir die Zahl der Publikationen, Zitationsraten, Patente, die Menge der Promotionen. Jeder dieser Indikatoren bildet nur einen Ausschnitt der Wirklichkeit ab. Zusammen ergeben sie jedoch ein recht stimmiges Bild. Über diese Kriterien entscheiden übrigens nicht wir allein. Wir diskutieren regelmäßig mit einem Fachbeirat, in dem Professoren sitzen, die etwas von der Disziplin verstehen.

HARTMANN: Gewiss gibt es qualitative Unterschiede zwischen den Rankings. Doch ihr Effekt ist derselbe: Die Rankings schaffen Unterschiede und zementieren sie. Der Chef von Daimler, Herr Zetsche, hat in Paderborn promoviert, weil es vor 25 Jahren mehr oder minder egal war, wo man den Doktor machte. Das wird es nicht mehr geben. Wo es endet, sieht man in den USA. Da gibt es eine feste Hierar chie, bei der Harvard in allen Rankings immer oben steht. Das hat mit Wettbewerb nichts zu tun.

MÜLLER-BÖLING: Aber in unserem Ranking gibt es die Hierarchien gar nicht. Da wir wissen, dass die Unterschiede zwischen Platz vier und fünf minimal sind, verteilen wir keine Ränge nach Bundesligamanier, sondern bilden Gruppen: eine Spitzen-, Mittel- und Schlussgruppe. Zwischen denen sind Qualitätsunterschiede durchaus vorhanden. So gibt es sehr forschungsstarke Fachbereiche, und bei anderen fragt man sich, ob die Professoren da noch Forschung betreiben.

HARTMANN: Aber oft passt die Realität nicht in ein Ranking. Der Wissenschaftsrat etwa hat kürzlich festgestellt, dass fast zwei Drittel der chemischen Fakultäten gute oder sehr gute Einheiten haben. Sie aber bilden mit Ihrem Ranking auch in der Chemie drei Gruppen, weil das Ihre Systematik so vorsieht und sich die Botschaft "Zwei Drittel der Chemie sind gut" in den Medien nicht verkaufen lässt. Lieber zwingen Sie die Realität in ein Korsett.

MÜLLER-BÖLING: Richtig ist, dass Rankings Unterschiede hervorheben. Was nicht stimmt, ist, dass wir über die Jahre keine Veränderungen feststellen. Es gibt Auf- und Absteiger. Wenn eine neue Bibliothek gebaut oder die Studienordnung reformiert wird, schlägt sich das im Ranking nieder.

MÜNCH: Am Ende aber bestimmt doch die Größe eines Fachbereiches oder einer Universität, wer im Ranking oben steht. Das liegt daran, dass große Hochschulen immer mehr Drittmittel einwerben und mehr Publikationen produzieren als kleinere. Über Qualität sagt Größe wenig aus.
MÜLLER-BÖLING: Das sehe ich anders. Die Größe einer Fakultät hat sehr wohl Einfluss auf ihre Forschungsqualität. Wenn sie nur zwei Professoren in einem Fach hat, erreicht sie schwer ein bestimmtes wissenschaftliches Niveau. Zudem wird gerade in den Natur- und Ingenieurwissenschaften mit teuren Geräten und in Forschergruppen gearbeitet. Auch da spielt Größe eine Rolle. Doch natürlich ist sie nicht alles. Deshalb schauen wir nicht nur, wie viele Drittmittel eine Universität insgesamt in einem Fach eingeworben hat, sondern ebenso, wie viele in Bezug auf die Zahl ihrer Wissenschaftler. Das Gleiche gilt bei Erfindungen oder Publikationen. Deshalb schneidet Ihr Fachbereich, Herr Hartmann, im CHE-Ranking zum Beispiel gut ab. Die Soziologie in Darmstadt ist klein, produziert, auf den einzelnen Wissenschaftler berechnet, jedoch viele wissenschaftliche Publikationen.

MÜNCH: Ihr Raster bleibt dennoch sehr grob. Wenn das CHE-Ranking die Chemie einer Universität als mittelmäßig bewertet, geht dabei unter, dass Teilbereiche der Chemie dort sehr gut sein können. In Ihrem Ranking verschwindet die Qualität von Forschungseinheiten oder einzelnen Forschern völlig. Dabei bringen sie den wissenschaftlichen Fortschritt voran, nicht ein ganzer Fachbereich.

MÜLLER-BÖLING: Rankings haben mit Gerechtigkeit wenig zu tun. Natürlich kann es an einer forschungsschwachen Fakultät auch profilierte Forscher geben. Vielleicht findet man an einem Fachbereich, der bei uns in der Lehre schlecht abschneidet, auch gute Hochschullehrer. Die Aussagen von Rankings beruhen immer auf Durchschnittswerten. Ein Studienanfänger will wissen, wie die Chemie an einer Universität ist, und nicht, ob die organische Chemie besser ist als die anorganische.

HARTMANN: Wenn es allein um die Studenten ginge! Aber auch Politiker und Uni-Leitungen schauen sich nur die Gesamtergebnisse an.

MÜNCH: Auch die Professoren lassen sich durch Rankings beeinflussen. Weil die Ranglisten keine Bücher erfassen, schreiben immer mehr Wissenschaftler nur noch Aufsätze. Gleichzeitig stückeln sie ihre Forschungsergebnisse und verteilen sie auf verschiedene Artikel. Denn mehrere kleine Artikel zählen im Ranking mehr als ein großer.

MÜLLER-BÖLING: Abgesehen davon, dass unsere Ranglisten auch Bücher enthalten, sehe ich natürlich die Gefahr ungewollter Nebeneffekte. Das heißt aber nicht, dass wir keine Vergleiche anstellen dürfen. Wir leben in einer Mediengesellschaft, da geht es den Unis nicht anders als der Kirche oder Unicef. Die Öffentlichkeit verlangt nach Transparenz und Rechenschaft. Besonders wenn jemand wie ein Professor vom Steuerzahler finanziert wird.

ZEIT: Aber ist es fair, eine Fakultät im wohlhabenden Baden-Württemberg gegen eine im armen Sachsen- Anhalt antreten zu lassen?

MÜLLER-BÖLING: Nochmals: Es geht nicht um Gerechtigkeit, sondern um die Darstellung von Leistungen. Es kann sein, dass eine Fakultät mehrere Professoren einsparen musste und deshalb schlechter abschneidet. Die Ursachenanalyse ist Sache der Hochschulen und der Politik. Wir stellen nur dar.

MÜNCH: Die Folgen der öffentlichen Darstellung sind fatal. Bisher läuft alles darauf hinaus, dass man in eine kleine Gruppe von Fachbereichen und Universitäten investiert, während die Mehrheit kurzgehalten wird. Der Versuch, mit wenigen Hochschulen in die internationalen Spitzenliga aufzusteigen, schadet dem großen Rest der Universitäten.

ZEIT: Nützt der Wettbewerb also nur wenigen?

HARTMANN: Sicher, zumindest solange seine Bedingungen nicht fair sind. Wenn ein Forscher nicht mehr über eine ausreichende Grundausstattung verfügt, hat er im Wettbewerb keine Chance. Außerdem wird kreativen Einzelköpfen die Möglichkeit genommen, unabhängig von Drittmitteln eigenen Wegen nachzugehen. An immer mehr Hochschulen läuft Forschung nur noch auf Sparflamme. Diese Tendenz wird von Rankings beschleunigt, weil sie die Konzentration der Mittel fördert.

MÜLLER-BÖLING: Ich sehe diese Gefahr nicht. Ich glaube, dass unsere Hochschulen durch eine Aufgabenteilung besser werden. Früher suchten fünf Prozent eines Jahrgangs eine Hochschulausbildung, heute 40. Um die Bedürfnisse und Erwartungen dieser großen Gruppe zu befriedigen, brauchen wir verschiedenartige Institutionen: solche, die sich auf die Forschung konzentrieren, und andere, die sich stärker der Lehre widmen.

ZEIT: Herr Münch, Herr Hartmann, lässt sich denn Wissenschaft gar nicht messen?

MÜNCH: Ich finde, dass Rankings überflüssig sind. Nirgendwo wird so viel evaluiert wie in der Wissenschaft. Das fängt mit dem ersten Examen an, geht weiter mit der Promotion, dann mit der Habilitation. Die Karriere eines Wissenschaftlers war immer wettbewerbsorientiert. Zudem weiß ich als Wissenschaftler, wo in meinem Feld die Spitzenleute sitzen. Dafür brauche ich kein Ranking.

HARTMANN: In meinem Fach gibt es zwei Klassiker, Norbert Elias und Pierre Bourdieu, die nach heutigen Qualitätskriterien keine Chance gehabt hätten. Der deutsche Nobelpreisträger Grünberg wurde jahrelang als Außenseiter belächelt, weil er auf einem Feld arbeitete, das die Mehrheit der Kollegen als irrelevant abgetan hat. Hätte er sich nach den Kriterien von Rankings gerichtet, hätte er keinen Nobelpreis bekommen.

Aus DIE ZEIT :: 21.05.2008

Ausgewählte Artikel
Ausgewählte Stellenangebote