Föderalismus : Schulen vergleichen? In Deutschland? Bloß nicht!

Unzählige Daten sammeln die Länder über ihre Schulen und Schüler – Daten, die zeigen könnten, wie erfolgreich ihre Bildungs­politik wirklich ist. Wenn nur frei damit geforscht werden dürfte.

Dieser Artikel erschien am 06.02.2020 in der Süddeutschen Zeitung
Bernd Kramer
Abiturprüfung
Mehr Vergleichbarkeit im Bildungssystem – etwa beim Abitur, das die Schüler im Bild gerade schreiben – lautet eine ständige Forderung an die 16 Länder. An der nötigen Transparenz fehlt es allerdings bisher.
©dpa

Am 19. August 2019 ging ein außergewöhnlicher Brief aus dem Ministerium an sämtliche Schulen in Rheinland-Pfalz. Ein Professor, hieß es darin, habe um die Ergebnisse der Vergleichs­arbeiten gebeten, die Schülerinnen und Schüler landes­weit Jahr für Jahr schreiben. Bislang waren sie unter Verschluss, und so hätte es auch bleiben sollen. Doch der Professor drohte mit einer Klage. Und das Land wollte nicht vor Gericht landen.

„Um einen Rechts­streit mit ungewissem Ausgang zu vermeiden“, schrieb der hohe Beamte, habe man sich „auf einen Kompromiss verständigt, durch den Interessen beider Seiten gewahrt werden können“. Die Schulen hätten zwei Wochen Zeit zu wider­sprechen, wenn die Ergebnisse aus ihren Vergleichs­arbeiten nicht für die Forschung genutzt werden sollen. Die wenigsten machten sich diese Mühe, am Ende bekam der Forscher Zugang zu den Daten. Wenn auch nach hartem Kampf.

Eigentlich hätte es auch für die Verantwortlichen im Mainzer Ministerium interessant sein können, was Horst Weishaupt, Professor für Empirische Bildungs­forschung, heraus­finden will: Wovon hängt es ab, ob Schüler bei den Tests gut oder schlecht abschneiden? Wie gut lernen Kinder und Jugendliche an Brenn­punkt­schulen? Was könnte ihnen helfen? Doch die Politik hütet die Daten wie ein Staats­geheimnis. Nicht nur in Mainz. „Die Kultus­minister wollen weiterhin, dass Forschungs­fragen, die für ihr politisches Handeln wichtig sind, nicht unter­sucht werden“, sagt Weishaupt. Der Wissen­schaftler ist inzwischen erfinderisch geworden: Er bittet Land­tags­abgeordnete, die Daten für ihn anzufordern – parlamentarische Anfragen können Ministerien nicht so einfach abblocken wie die E-Mail eines Professors. Weishaupt ist 72, längst emeritiert und daher einer der wenigen, die offen Kritik äußern. Andere klagen hinter vor­gehaltener Hand, dass Bildungs­politik viel zu oft wie im Blind­flug betrieben werde – weil die Minister viel tun, um die Wissenschaft draußen zu halten.

Dabei werden die Schulen in Deutschland so sehr vermessen wie nie zuvor, Forscher gehen mit langen Frage­bögen und aus­geklügelten Tests in den Klassen­zimmern ein und aus. 223 weiter­führende Schulen nahmen vor gut zwei Jahren an der Pisa-Studie teil. Und in den nächsten Monaten lassen die Kultus­minister, wie alle paar Jahre, deutschland­weit Zehntausende Viert­klässlerinnen und Viert­klässler testen. Zwei Tage lang, jeweils drei Stunden, Mathematik an dem einen, Deutsch am anderen Tag. Daten, Daten, Daten.

Im Bildungs­föderalismus lernen die Länder angeblich voneinander. Über­prüfen lässt sich das kaum

Als die Ministerrunde vor zwei Jahren die Ergebnisse des letzten Grund­schul­vergleichs vor­stellte, fielen die Leistungen mau aus – doch die deutsche Klein­staaterei wurde prompt zu einer Lösung des Problems proklamiert. „Die Länder werden die große Stärke des Bildungs­föderalismus nutzen, im Wettbewerb der Ideen von­einander zu lernen“, versprach Baden-Württembergs Kultus­ministerin Susanne Eisenmann (CDU). Es ist das Standard­argument dafür, warum in einem Staat 16 verschiedene Bildungs­systeme existieren: Man kann schauen, wer es am besten macht, und sich daran orientieren.

Nur passt das nicht so recht zur Praxis: Die Daten des Grund­schul­vergleichs und vieler weiterer Schul­studien liegen beim Institut zur Qualitätsentwicklung im Bildungs­wesen (IQB) in Berlin, das die 16 Länder gemeinsam gegründet haben. Bildungs­forscher können sie beantragen und für eigene Unter­suchungen auswerten – meistens sogar relativ problemlos. Nur wenn sie Länder mit­einander vergleichen wollen, wird es kompliziert: Dann müssen sie aufwendig begründen, warum die Nennung der Länder „aus wissen­schaftlichen Gründen zwingend notwendig erscheint“. Zwei andere Wissen­schaftler über­prüfen als Gutachter den Antrag, das letzte Wort haben im Zweifel die Vertreter der Kultus­minister. Ein reines Ranking ist nicht gestattet. Die Länder fürchten mangelnde Fairness, etwa wenn Leistungen von Schülern in einer Stadt mit vielen Zuwanderern denen von Schülern in einem Flächen­land gegen­über­gestellt werden.

Wie die Antragsmühle funktioniert, zeigt das Beispiel der beiden Wirtschafts­doktoranden Marcus Roller und Daniel Steinberg. Sie kamen auf die Idee zu einer Untersuchung, als sich einer von ihnen an eine Bildungs­reform aus seiner Schul­zeit in Nieder­sachsen erinnerte: Dort wurden Kinder lange Zeit erst nach der sechsten Klasse auf die weiter­führenden Schul­formen verteilt. Erst seit 2004 gehen ihre Bildungs­wege schon nach der vierten Klasse auseinander – wie in den meisten anderen Bundes­ländern auch. Roller und Steinberg formulierten die Frage: Gab es in Niedersachsen nach der Reform Veränderungen in den Leistungen, die in anderen Ländern im gleichen Zeitraum nicht zu beobachten waren?

Die einzigen Daten für die Untersuchung lagen beim IQB. Einen 30-seitigen Antrag schrieben die Doktoranden. Er wurde bewilligt. Doch in den riesigen Tabellen­werken mit Tausenden Werten von Schülern aus allen Ecken der Republik, die sie zur Auswertung bekamen, fehlte die Kennung für die Bundes­länder. Die Forscher mussten ein kompliziertes Fern­rechen­verfahren anwenden: Roller schrieb die entsprechenden Befehle in einem Statistik­programm und schickte den Code an das IQB. Das wertete die Daten aus und prüfte in den Ergebnis­tabellen, ob sie wirklich keine unerlaubten Länder­werte enthielten, sondern nur, was vertraglich genehmigt war. Erst dann schickte das IQB den Forschern die Zahlen zurück. Das wissenschaftliche Hoch­sicher­heits­verfahren mutete an, als wären die Daten der Länder Waffen, die nicht in falsche Hände gelangen durften.

Die beiden Ökonomen stellten einen zweischneidigen Effekt der früheren Schüler­aufteilung fest: Nach der Reform wurden die Leistungen guter Schüler in Niedersachsen im Vergleich zu anderen Ländern etwas stärker, die Leistungen schlechter Schüler schwächer. Das Duo reichte seine Studie bei einer inter­nationalen Fach­zeitschrift ein – deren Gutachter mit den Empfindlichkeiten im deutschen Bildungs­föderalismus offenbar nicht vertraut war: „Er hätte gern noch die Resultate der übrigen Länder gesehen“, sagt Roller. Also schickte er seine Befehle für das Statistik­programm noch einmal über das Fern­rechen­system. Zurück kam eine Grafik, in der die Bundes­länder statt Namen Nummern trugen. Beklagen will sich Roller nicht, die IQB-Kollegen seien kulant gewesen. Umständlich fand er das Ganze aber schon.

Gut möglich, dass die hohen Hürden viele Forscher von Unter­suchungen abschrecken

Tatsächlich erhielt das IQB seit 2013 erst vier Anträge von Forschern, die Länder mit­einander vergleichen wollten. Einer wurde abgelehnt, drei wurden genehmigt. Das ist über­schaubar angesichts der 69 Datenanfragen ohne Länder­vergleiche, die das Institut zuletzt in nur einem Jahr erhielt. Gut möglich, dass der von Kultus­ministerin Eisenmann beschworene „Wettbewerb“ die Öffentlichkeit mehr interessiert als die Wissenschaft. Möglich aber auch, dass viele Forscher es wegen der hohen Hürden erst gar nicht versuchen.

Ein Professor, der anonym bleiben will, berichtet, dass er gern die Einstellungen der Lehrer zu einer bestimmten Reform untersuchen möchte. Das Urteil der Pädagogen fällt offenbar von Land zu Land unter­schiedlich aus – bloß warum? Mit IQB-Daten könne er die Frage leicht beantworten. „Ich hätte das auch längst gemacht, wenn es nicht so kompliziert wäre“, sagt er. „Man könnte da sehr viel mehr rausholen, wenn die Politik nicht so ängstlich wäre.“ Schon 2016 bemängelte der Wissenschaftliche Beirat des Wirtschafts­ministeriums, dass die Länder mauern – und verwies auf Beispiele im Ausland, die zeigten, wie sehr sich Schulen durch mehr Transparenz besserten. „Ob, in welchem Ausmaß und wo die Ziele der Bildungs­politik in Deutschland heute erreicht werden, wissen wir daher nicht“, schrieben die Ökonomen.

Auch beim Nationalen Bildungspanel, einer großen Daten­sammlung mehrerer Universitäten und Forschungs­institute, bei der Schüler und Studierende über viele Jahre hinweg begleitet werden, verbieten die Länder den Vergleich. Bei Verstoß drohen Vertrags­strafen „in Höhe von bis zu 100.000 Euro“. Die Daten werden schon so erhoben, dass viele repräsentative Vergleiche gar nicht möglich wären – auch zum Bedauern der Forschenden. „Wir können die Rechnung nicht ohne den Wirt machen und das ist der Preis, den wir dafür bezahlen müssen“, sagt Cordula Artelt, Projekt­leiterin des Bildungs­panels. Scharfe Kritik daran kam vom Wissenschafts­rat, dem höchste Beratungs­gremium der Politik für Forschungs­fragen: „Der Wissenschafts­rat hält es für unabdingbar, dass länder­spezifische Informationen den Nutzerinnen und Nutzern nicht nur zur Verfügung gestellt, sondern auch Publikationen entsprechend wissenschaftlicher Standards ermöglicht werden“, hieß es bereits 2013 in einer Stellung­nahme. Doch die Forderung verhallte ungehört.

Der Professor erzählt dann noch von einem einschneidenden Erlebnis. Von der Abteilungs­leitung eines Kultus­ministeriums habe er einmal ohne großes Zögern Daten für eine Untersuchung bekommen. Die Studie schlug Wellen, und mit einem Mal habe man ihm angedeutet, dass die Ministerin keine weitere Forschung von ihm wünsche. „Da ist die Erde verbrannt“, sagt er. „Ich habe daraus gelernt, dass man vorsichtig sein muss.“

Ein anderes Bundesland sei kooperations­bereiter. Die gewünschten Daten bekam er problem­los, ohne Vorgaben und Einschränkungen. Mit einer Ausnahme: Bitte nichts vor der Wahl veröffentlichen.