BdWi - Bund demokratischer Wissenschaftlerinnen und Wissenschaftler

»Wissenschaft ist also ein prinzipielles Gegen-den-Strom-Schwimmen.«

Klaus Holzkamp

Newsletter abonnierenKontaktSuchenSitemapImpressum
BdWi
BdWi-Verlag
Forum Wissenschaft

Hochschulspaltung von Staats wegen

22.05.2014: Forschungsrating des Wissenschaftsrats

  
 

Forum Wissenschaft 1/2014

Noch ein Ranking mehr. Der Wissenschaftsrat will sein sogenanntes Forschungsrating, das bisher nur im Testbetrieb lief, als Vollversion an Deutschlands Hochschulen an den Start bringen. Ausdrücklich soll damit auch der privaten Konkurrenz das Wasser abgegraben werden. Der Eliteforscher Michael Hartmann hat daran seine Zweifel und hält auch sonst nichts von der grassierenden "Vergleicheritis". Im Gespräch mit Ralf Wurzbacher für Studis Online beklagt der Soziologe das Schwimmen im Mainstream, den schleichenden Tod der Theorien sowie die Trennung in Hui und Pfui.

Studis Online: Der Wissenschaftsrat, der wohl bedeutendste Berater der Bundesregierung im Wissenschafts- und Hochschulbereich, will sein bislang lediglich im Pilotbetrieb getestetes sogenanntes Forschungsrating auf praktisch sämtliche Fächer der Geistes-, Sozial-, Natur- und Ingenieurwissenschaften sowie die Medizin ausweiten1. Das beschloss das von Bund und Ländern getragene Gremium in der Vorwoche bei seiner Herbsttagung in Mainz. Das Ganze ist auch eine Art Kampfansage an die Konkurrenz. Man hoffe, damit andere Rankings vom Markt zu verdrängen, meint der Ratsvorsitzende Wolfgang Marquardt. Wie stehen die Chancen, dass es so kommt?

Michael Hartmann: Nicht besonders gut. Die auf dem Markt befindlichen Rankings sind in puncto Ansatz, Stoßrichtung und Adressatenkreis allesamt sehr unterschiedlich konzipiert. Ein Forschungsrating, wie es der Wissenschaftsrat betreibt, existiert in Deutschland eigentlich kein zweites Mal, seit das CHE sein eigenes Forschungsranking 2009 eingestellt hat. Rankings, die eventuell vergleichbar wären, sind die von diversen Wirtschaftszeitungen und -magazinen. Diese beziehen sich jedoch zumeist ausschließlich auf die Wirtschaftswissenschaften und interessieren sich neben der Forschungsqualität beispielsweise auch für die Berufschancen der Absolventen. Außerdem ist die Erhebungsbasis oft sehr beschränkt, weil lediglich Manager von Konzernen und Unternehmen dazu befragt werden. Wen also will der Wissenschaftsrat mit seinem Rating verdrängen, wenn es an direkten Konkurrenten schlicht fehlt?

Was ist mit dem hierzulande bekanntesten vom Centrum für Hochschulentwicklung (CHE), dem Bertelsmann-Ableger aus Gütersloh. Das CHE-Ranking hat ja wegen seiner zweifelhaften Methodik einen inzwischen ziemlich schlechten Ruf weg und immer mehr Hochschulen und Fachbereiche wenden sich davon ab2. Der Wissenschaftsrat hat sich dagegen eine "wissenschaftsgeleitete, methodisch anspruchsvolle und aussagekräftige Bewertung von Forschungsleistungen" auf die Fahnen geschrieben. Ist das in Ihren Augen zu leisten?

Auch da bin ich äußerst skeptisch. Es bestehen einfach keine objektiven Maßstäbe, nach denen sich wissenschaftliche Leistungen bewerten ließen. Es gibt nur ganz wenige Dinge, von denen die Fachwelt einhellig sagen würde: Ja, das ist eine echte Errungenschaft. Bei vielem anderen gehen die Meinungen weit auseinander, was Qualität ist und was nicht. Außerdem bewegt sich Wissenschaft nicht im luftleeren Raum. Ihre Untersuchungsgegenstände und Anschauungen stehen unter dem Einfluss gesellschaftlicher Entwicklungen sowie politischer und ökonomischer Machtverhältnisse. Was in einer Phase als besonders innovativ gilt, kann schon bald wieder überholt sein, weil der Zeitgeist sich gewandelt hat.

Können Sie ein Beispiel dafür geben?

Nehmen wir nur die sogenannte Exzellenzinitiative zur Förderung von Spitzenforschung3. Wer als Wissenschaftler mit der Gen- und Hirnforschung befasst ist, hatte bei der Antragsbewilligung ungleich bessere Chancen, zum Zug zu kommen als der ganze große Rest der Disziplinen. Dahinter steht gegenwärtig eben ein großes Versprechen für die Menschheit, vergleichbar mit der sogenannten Künstlichen Intelligenz in den 1980er Jahren. Auch dafür wurde damals sehr viel Geld locker gemacht, das meiste davon unnötigerweise, was man aber erst im Nachhinein erkannte. Dazu kommt, dass jede Disziplin von einem dominanten Mainstream durchdrungen ist. In den Wirtschaftswissenschaften ist das zum Beispiel seit langem der angebotsorientierte, neoliberale Ansatz, der praktisch alle Publikationen, Fakultäten und Berufungskommissionen beherrscht. Wenn man abseits dieser Glaubenslehre Ideen formuliert - und mögen sie noch so brillant sein - ist die EURscheinlichkeit, damit Aufmerksamkeit zu erregen, indem man etwa Fördermittel bewilligt bekommt oder Veröffentlichungen in renommierten Zeitschriften erreicht, außerordentlich gering. Und solche Gesetzmäßigkeiten sind quer durch alle Wissenschaftsbereiche zu beobachten, mal stärker, mal schwächer ausgeprägt.

Zurück zum CHE-Ranking. Verstehen Sie Ratschef Marquardt nicht auch so, dass er vor allem den Güterslohern den Kampf ansagt?

Das mag schon sein und hat vielleicht auch damit zu tun, dass das CHE-Ranking unter dem Namen "U Multirank" im Auftrag der EU auf ganz Europa ausgeweitet werden soll. Ziel ist es, eine schlagkräftige Konkurrenz zum international tonangebenden Shanghai-Ranking aufzubauen. Gelingt dies, würde das den Einfluss des CHE natürlich erheblich vergrößern. Dem Wissenschaftsrat ist es vermutlich nicht unangenehm, dass eine Reihe von Fachgesellschaften aus dem CHE-Ranking ausgestiegen ist. An die Kritiker geht jetzt das Signal: Seht her, wir machen ein besseres, wissenschaftlich sauberes Ranking unter staatlicher Hoheit - kommt doch zu uns. Trotzdem gilt: Das CHE-Ranking hat abseits aller methodischen Mängel eine ganz andere Zielgruppe. Es soll auch und vor allem Studierenden Orientierung bieten bei der Wahl ihres Studienfachs und ihrer Hochschule. Das Forschungsrating spielt sich auf einer ganz anderen Ebene ab, ein Vergleich zwischen beiden gleicht dem zwischen Äpfeln und Birnen.

Würden Sie trotzdem sagen, beim Forschungsrating wird gewissenhafter gearbeitet?

Insgesamt ja. Der Aufwand ist ohne Frage ungleich größer. Beim CHE-Ranking gibt es Kriterien, die absolut nicht einsichtig sind. So wird zum Beispiel in der Soziologie höchster Wert auf die Methodenausbildung gelegt, während die Theorieausbildung völlig außen vor bleibt. Angesichts der mitunter sehr geringen Zahl an Befragten erscheint die Erhebung auch nicht wirklich repräsentativ. Das alles macht der Wissenschaftsrat sehr viel besser. Die Kehrseite davon ist allerdings, dass dies für die teilnehmenden Institutionen einen enormen Arbeits- und Zeitaufwand mit sich bringt.

Sie kennen das Forschungsrating aus eigener Anschauung, das soziologische Institut der TU Darmstadt war bei dem Pilotbetrieb beteiligt. Was genau wurde dabei ermittelt und wie?

Das Verfahren ist kompliziert, es würde den Rahmen sprengen, das alles im Detail zu schildern. Es wurden auf jeden Fall eine Menge Daten erhoben und die Bewertung der Leistungen oblag fast ausschließlich Leuten vom Fach. Den finalen Beschluss, wie eine Bewertung ausfällt, traf eine 16-köpfige Expertengruppe. Maßgeblich waren dabei sechs Kriterien: Die Forschungsqualität anhand von Drittmitteln und Veröffentlichungen; der Einfluss auf die Fachwissenschaft; die Effizienz beim Umgang mit den verfügbaren Forschungsmitteln; die Nachwuchsförderung; der Transfer in andere gesellschaftliche Bereiche; Wissensvermittlung und -verbreitung. Für jedes dieser Kriterien wird eine Note auf einer Skala von eins bis fünf vergeben ...

Wobei auf eine Gesamtnote ausdrücklich verzichtet wird ...

Richtig, bei all dem soll am Ende nicht ein plakatives Ergebnis herauskommen, sondern eine differenzierte Bewertung der verschiedenen Leistungen. Das ganze Prozedere ist ein gewaltiger Kraftakt. Ich musste meine Kollegen anhalten, ihre Veröffentlichungen zu sichten und einzureichen, dann musste ich eine Auswahl treffen, dann mussten Daten über Promotionen, über Drittmittel und vieles mehr zusammengetragen werden. Man hat allerhand zu tun und investiert Energien, die dann an anderer Stelle, wo sie vielleicht nötiger gebraucht werden, fehlen.

Hat das Vorgehen aus Ihrer Sicht noch andere Haken?

Die vermeintliche Stärke des Ansatzes, nämlich der große Kriterienkatalog, hat sich zugleich als seine Schwäche entpuppt. Weil sich wissenschaftlicher Ertrag eben nicht objektiv messen lässt, stand zum Abschluss der entscheidenden Sitzung nur so etwas wie der kleinste gemeinsame Nenner. Man hat sich die Kriterien herausgegriffen, die sich noch am leichtesten messen lassen. Dazu zählen zuvorderst Veröffentlichungen in den Peer-Reviewed Journals als vermeintlich sicherster Maßstab für wissenschaftliche Qualität sowie die Generierung von Drittmitteln. Vieles andere wie zum Beispiel Buchveröffentlichungen wurde am Ende praktisch nicht gewürdigt, weil es keine Einigkeit gab, wie man das bewerten soll. Aus demselben Grund sind die Kriterien fünf und sechs, also der Transfer in andere Gesellschaftsbereiche und Wissensvermittlung, viel gröber bewertet worden. Im Grunde wiederholt sich beim Forschungsrating das, was wir schon von der Exzellenzinitiative kennen. Forschung wird nach den üblichen Maßstäben - Drittmittel, Sichtbarkeit in den exponierten Fachzeitschriften - begutachtet und bewertet. Wer hier etwas vorzuweisen hat, gilt als exzellent. Was dagegen am Mainstream und am Zeitgeist vorbeigeht, fällt durch oder wird mit Missachtung gestraft.

Was zum Beispiel?

Bei mir im Institut war damals ein Kollege in verschiedenen Projekten mit Landesministerien und Gewerkschaften befasst. Das alles ist deutlich abgewertet worden, obwohl man gesellschaftliche Einflüsse auf dieser Ebene sehr wohl auch als wichtig erachten könnte. Nicht ganz zufällig mit am besten hat in der Soziologie das Sozio-ökonomische Panel (SOEP) abgeschnitten. Das ist eine alljährliche Wiederholungsbefragung unter 12.000 Privathaushalten in Deutschland, deren Macher eine Abteilung beim Deutschen Institut für Wirtschaftsforschung (DIW) innehaben. Das DIW hat nicht nur eine eigene Zeitschrift mit peer review, wo die Ergebnisse regelmäßig veröffentlicht werden, sondern das SOEP hat auch den Vorzug, dass es sich methodisch sehr ausgefeilt allein mit quantitativen Projekten mit großen Zahlen beschäftigt. Die Forscher leisten dort durchaus gute Arbeit. Das will ich gar nicht bestreiten. Dennoch stört mich die Bewertung als besonders exzellente Forschung. Wenn das nämlich das Nonplusultra soziologischer Forschung sein soll, haben Leute, die sich zum Beispiel mit kritischer Theorie und Ideengeschichte befassen, deutlich geringere Chancen auf eine gute Bewertung. Wir erleben hier eine Engführung von Wissenschaft, die in allen Bereichen zu beobachten ist und durch Rankings, egal welcher Art und Güte, forciert wird.

Für Sie ist das Forschungsrating also keinesfalls die Negation des klassischen Rankings, wie der Wissenschaftsrat dies darzustellen versucht?

Auch wenn hier sauberer gearbeitet und eine Klassifikation in Hui oder Pfui vermieden wird, gilt doch: Durch die Übergewichtung der am besten quantifizierbaren Kriterien nimmt die Breite der Wissenschaft nachhaltig Schaden. Vorne landet, wer die meisten Fördergelder einheimst und in den renommierten Zeitschriften veröffentlicht. Und wer einmal gut gerankt wird, schafft es leichter zu weiteren Drittmitteln und Veröffentlichungen - und damit wieder an die Spitze beim nächsten Ranking. Das ist ein sich ständig verstärkender Effekt.

Was haben eigentlich Studierende von diesem Forschungsrating?

Meines Erachtens so gut wie gar nichts. Für Studienneulinge ist es weitgehend irrelevant, welche Forschungsqualität eine Institution hat. Umgekehrt gilt inzwischen sogar vielfach, dass eine hohe Rankingposition in der Forschung mit einer minderen Qualität der Lehre einhergeht. Im Rahmen der Exzellenzinitiative haben sich tatsächlich viele der Prämierten ihre Lehrdeputate reduzieren lassen. Das ist in den USA längst gang und gäbe. Dort halten sich die meisten Professoren mit Rang und Namen weitgehend aus der Lehre im Undergraduate-Studium heraus, um sich mehr auf die Forschung konzentrieren zu können. Interessant wird ein Forschungsrating eigentlich erst für jene Studierenden, die eine Promotion anstreben. Das sind aber bekanntlich eher wenige.

Wem dann bietet das Rating Orientierung?

Vor allem den Hochschulleitungen, damit sie sehen, wie und wo sie sich in der Forschung "verbessern" müssen. Schneidet beispielsweise die Chemie im Rating besser als die Soziologie ab, kann das in der Tendenz dazu führen, dass die Chemie zum Nachteil der Soziologie weiter gepäppelt wird, oder manchmal vielleicht auch umgekehrt. Auf lange Sicht werden so die Hochburgen gestärkt und die scheinbar schwachen Gebiete peu á peu ausgedünnt. Nach demselben Muster werden auch die Kultusminister, die Wissenschaftsstiftungen und die Wirtschaft ihre Gelder auf die konzentrieren, die beim Forschungsrating oben mitmischen. Im Verteilungskampf um die knappen Mittel und unter den Vorzeichen der sogenannten Profilbildung wird sich die Spaltung in Gewinner und Verlierer sowohl hochschulintern als auch hochschulübergreifend weiter zuspitzen. Und der Wissenschaftsrat ist fraglos angetreten, diese Tendenzen zu forcieren, auch wenn er das so offen nicht zugibt.

Immerhin geht hier Evaluation von staatlicher Seite aus und nicht von Wirtschaftsvertretern, wie etwa dem CHE, das ja von der Bertelsmann Stiftung gesponsert wird. Macht das die Sache nicht besser?

Das CHE ist ja auch kein direkter Wirtschaftsakteur. Seinen großen Einfluss verdankt es genaugenommen erst dem Umstand, dass mit der Hochschulrektorenkonferenz (HRK) eine quasi staatliche Institution bei ihm eingestiegen ist. Das CHE hat seine Methodik in den vergangenen Jahren in Teilen weiterentwickelt, anders als die internationale Konkurrenz - allen voran das Shanghai-Ranking - verzichtet es auch auf Hochschulranglisten. Es grenzt sich zudem von besagten Rankings von Wirtschaftszeitungen ab, die ganz eindeutig von ökonomischen Interessen geprägt sind. Das heißt, eine Opposition im Sinne von Staat gegen Privat lässt sich bei der Betrachtung von Forschungsrating und CHE-Ranking nicht erkennen. Vielmehr ist es so, dass die grundlegenden Probleme von Rankings und deren schwerwiegende Folgen aus meiner Sicht beide Akteure gleichermaßen zu verantworten haben.

Die "Vergleicheritis" im deutschen Hochschulwesen steht ja nun schon seit Jahren hoch im Kurs. Hätte es also eines weiteren Rankings gar nicht bedurft, nicht einmal eines von Staats wegen?

Meines Erachtens ist dieses Forschungsrating methodisch besser als alle anderen. Nichtsdestotrotz treibt es wie alle anderen auch die Hierarchisierung innerhalb der deutschen Hochschullandschaft, wie sie seit der Jahrtausendwende vonstattengeht, weiter voran. Es herrscht ein klares Primat sogenannter Spitzenforschung, das vorgibt, was an einer Hochschule belohnt wird und was nicht. Andere mögliche Kriterien wie gute Lehre oder gute Integration von Studierenden aus bildungsfernen Bevölkerungskreisen spielen kaum eine Rolle. Wer sich diesem Trend nicht anpasst, wird abgestraft und fällt beim Rating als Verlierer durch. Fakt ist: Auf diesem Wege wird die vertikale Differenzierung zwischen den Hochschulen weiter befördert.

Anmerkungen

1)www.wissenschaftsrat.de/download/archiv/3409-13.pdf.

2)www.studis-online.de/HoPo/art-1431-che-ranking-soziologen.php.

3)www.studis-online.de/HoPo/art-1422-exzellenzinitiative2012.php.


Unser Interviewpartner, Michael Hartmann, ist Professor für Soziologie an der TU Darmstadt. Er forscht über Eliten, Globalisierung und nationale Wirtschaftskulturen und über Hochschulsysteme im internationalen Vergleich. Hartmann versteht sich selbst als Sozialist und Kritiker der deutschen Gegenwartsgesellschaft. Der vorliegende Beitrag ist erstmals digital am 01.11.2013 auf Studis Online (www.studis-online.de/HoPo/art-1582-forschungsrating-ausweiten.php) erschienen. Wir bedanken uns bei der Redaktion für die Nachdruckgenehmigung und verweisen gerne auf dieses interessante hochschulpolitische Online-Portal, mit dem der BdWi seit langem zusammenarbeitet.

Zum Seitenanfang | Druckversion | Versenden | Textversion