Markus Krall Freiheit oder Untergang

 

Pisa und die Angst vor der Wahrheit

Inder deutschen Schulpolitik geht seit eh und je die Angst vor der Wahrheit um. Deshalb werden vor allem schulische Leistungsvergleiche, die nach Bundesländern und Schulfor-men spezifiziert sind, mit sehr spitzen Fingern angefaßt. Man hat Angst vor Enttäuschungen, vor allem vor der Zerstörung der Lebenslüge, daß alle 16 Bundesländer gleiche Bildungsqualität produzierten und daß „autonome“, „offene“, „integrierte“ Schulen ohne Stundenplan, ohne Fächertafel und ohne Ziffernzeugnis das Rezept für die Zukunft seien. Gerade „Reform“-Länder wie Bremen oder Nordrhein-Westfalen blieben gerne resistent gegen Erfahrung; sie weigerten sich lange, empirische Daten zur Kenntnis zu nehmen. Siehe Beispiel Gesamtschule! Es wäre sonst ja sehr früh zu einem bösen Erwachen gekommen! Bezeichnenderweise – oder deshalb? – ist in Deutschland auch noch kaum ein Schulversuch für gescheitert erklärt worden. Dieser Widerstand gegen Leistungsmessung hat Tradition in Deutschland. Helmut Schelsky schrieb bereits 1961: „Daß der Bericht des Ausschusses (gemeint ist der von 1953 bis 1965 existierende Deutsche Ausschuß für das Erziehungs- und Bildungswesen) (…) den Versuch unterläßt, seine Ausgangspunkte wissenschaftlich auch quantitativ beweiskräftig zu belegen, spiegelt leider den Schrecken speziell der deutschen Pädagogik vor Zahlen wider“ (in Schelsky: Anpassung und Widerstand – Zwischenbemerkungen zu den Denkweisen des Rahmenplans). Karlheinz Ingenkamp klagt 1989 in der Streitschrift „Die Test-Aversion des deutschen Intellektuellen“: „Es gibt keine westliche Industrienation mit einem so niedrigen Standard der pädagogischen Diagnostik wie in der Bundesrepublik, wie die internationale Literatur belegt. (…) Ein Bildungswesen, das nur zufallsabhängige, vereinzelte, subjektive Informationen über die Bewährung seiner Maßnahmen erhält, ist unfähig, seine Reformen gediegen und gründlich zu planen. Es wird Planung durch wortgewaltige Absichtserklärungen ersetzen, für die die politische Akzeptanz wichtiger ist als pädagogische Qualität. Unsere Test-Aversion hat dadurch zum Niedergang der bildungspolitischen Diskussion beigetragen, die sich immer weniger an nachprüfbaren Fakten orientieren muß und kann und immer stärker auf Emotionen und medienwirksame Klischees zurückgreift.“ Konkrete Bilanzen werden in deutscher Schulpolitik also nicht geschätzt. Lieber schmückte man sich mit Theorie. Nordrhein-Westfalen tat dies mit seiner hunderttausendfach vertriebenen Denkschrift „Zukunft der Bildung – Schule der Zukunft“ (1995). Und wo sich deutsche Schulforschung einmal nicht mit Utopien befaßte, da war sie damit beschäftigt, Wünsche von Eltern und Schülern auszuzählen, die subjektive Akzeptanz von Schule zu erfragen oder Abiturientenquoten miteinander zu vergleichen. Diese Test-Aversion war Mitte/Ende der neunziger Jahre nicht überwunden. Im Dezember 1996 und im Februar 1997 wurden die Ergebnisse der Third International Mathematics and Science Study (TIMSS II) auf den Markt gebracht. Als offizielles Ergebnis wurde für die siebenten und achten Klassen festgestellt: Deutschland befinde sich nur auf mittleren Rangplätzen. Aber: Die Studie enthielt drei Ergebnisse, die zunächst nur den Kultusministerien, nicht jedoch der Öffentlichkeit zugänglich gemacht werden sollten, nämlich daß es erstens innerhalb Deutschlands Differenzen zwischen den Bundesländern von eineinhalb Jahren gebe (dem Vernehmen nach handelt es sich bei den beiden verglichenen Bundesländern um Bayern und Nordrhein-Westfalen) und daß zweitens die Ergebnisse der Gesamtschule deutlich hinter der Realschule und weit hinter dem Gymnasium rangierten. Und drittens wurde ständig und gezielt übersehen, daß das Gymnasium in Deutschland auf der internationalen Skala auf Platz 2 steht: mit einem Wert von 589 hinter Singapur mit 607. Da stellt sich schon die Frage, ob in der Veröffentlichungspraxis nicht Opportunitätsgesichtspunkte eine Rolle spielen. ……………………………. Tatsächlich geht es im absurden Pisa-Theater mit seinen marionettenhaft agierenden Gouvernanten um die Deutungshoheit und um die Lufthoheit an vermeintlichen Bildungsstammtischen. ……………………………. Auch nach TIMSS, oder vielleicht gerade wegen TIMSS, tut man sich in Deutschland schwer mit der schul-politischen Wahrheit. Immer noch! Weil die PISA-Ergebnisse brisant werden könnten, intervenierten die Gegner eines innerdeutschen Pisa-Schulleistungs-vergleichs im August 1999, also rund ein dreiviertel Jahr vor der PISA-Testung, schon mal prophylaktisch. In einem Protestbrief an die SPD-Schul-minister wetterte die SPD-Arbeitsgemeinschaft für Bildung gegen Pisa und gegen die SPD-regierten Länder, die es zuließen, mit einem innerdeutschen Pisa-Vergleich „für ihre Schulpolitik an den Pranger gestellt zu werden“. Man fürchte in der Folge, so wörtlich, „daß die SPD-Bildungspolitik der letzten dreißig Jahre zum Scheitern verurteilt werden soll“. Und weiter: „Es ist ohne Test vorher zu sagen, daß Länder mit selektiven Schulsystemen, die den Schulstrukturreformen der letzten dreißig Jahre widerstanden haben, bessere Schülerleistungen in allen Schulformen haben werden.“ Die Gewerkschaft Erziehung und Wissenschaft (GEW) glaubte damals in einem Brief an dieselben Adressaten zu wissen: Solche innerdeutschen Vergleiche seien „unseriös und tendenziös“, weil „Bundesländer mit hochselektiven Schulsystemen auf der Basis eines Schulform-vergleichs besser abschneiden müssen“; die GEW wußte, daß dann den „reformorien-tierten Bundesländern die Revision ihrer bisherigen Schulpolitik nahegelegt würde“ und daß „alles andere eine Sensation wäre“. Reife Einsichten! Aber der Schock von 1996/97 mit TIMSS und seinem innerdeutschen Vergleich saß noch tief, schließlich hatten bei TIMSS Schüler aus Bayern und Baden-Württemberg einen Lernvorsprung von eineinhalb bzw. zwei Jahren gegenüber Nordrhein-Westfalen. Diese Boykottpolitik trug denn auch Früchte. Die Beteiligungsquoten bei Pisa-E 2000 waren in den Bundesländern sehr unterschiedlich. An der Spitze lagen Thüringen mit 92,0 und Bayern mit 89,6 Prozent Schülerbetei-ligung, am anderen Ende Hamburg mit 70,1 und Berlin mit 69,3 Prozent. Letztere fielen gar ganz aus der Wertung, weil sie das Quorum für den Vergleich aller Schul-formen nicht erreicht hatten. Verwertbar waren für Hamburg und Berlin nur die Daten der Gymnasien, weil nur sie das Beteiligungsquorum von 85 Prozent Schulbeteiligung bzw. 80 Prozent Schülerbeteiligung überschritten hatten. Interessant: Je niedriger die Beteiligungsquote in den Einzelschulen, etwa in Bremen, desto besser deren Ergebnis. Die Pisa-Autoren vermuten dann auch, daß bei niedrigeren Beteiligungsquoten vor allem die schwächeren Schüler bzw. Schulen mit schwächeren Schülern testabstinent blieben; sie formulieren gar die „Annahme, daß in Bremen eher leistungsschwächere Gymnasiasten nicht an der Untersuchung teilgenommen haben“. (…) Zurück zu den Anfängen von Pisa: Im Jahr 2000 wurden in Deutschland über 48.000 Schüler aus 1.479 Schulen getestet. Aber selbst Anfang 2005 sind nach mittlerweile drei Pisa-2000-Bänden immer noch nicht alle relevanten Daten veröffentlicht. Gewiß war es Ende 2001 interessant zu erfahren, daß die Deutschen international nur zwischen dem mittleren und dem hinteren Pisa-Drittel rangieren; noch aufschlußreicher – für manche zu aufschlußreich – war es, am 25. Juni 2002 davon Kenntnis zu erhalten, daß es innerhalb Deutschlands schulformübergreifend und gymnasial ein erhebliches Süd-Nord-Gefälle in der Schulleistung gibt. Verräterisch war zudem, daß die Veröffentlichung dieser innerdeutschen Leistungsvergleiche auf einen Zeitpunkt nach der Bundestagswahl vom 22. September 2002 verschoben werden sollte. (…) Wenn in Deutschland Pisa ansteht, bricht wie auf Knopfdruck kollektive Dyskalkulie (vulgo: pathologisch mangelndes Verständnis für Zahlen) aus. Das war so im Dezember 2001, als Pisa 2000 mit seinen internationalen Werten veröffentlicht wurde; es war so, als im Juni 2002 die Vergleichswerte der Bundesländer folgten, und es wiederholte sich, als im März 2003 eine vertiefende Pisa-Auswertung folgte. Im November 2004 hat Deutschland erneut gefiebert, hingefiebert auf das Ergebnis der Pisa-Studie 2003. Obwohl vereinbart war, daß deren Resultate erst am 7. Dezember 2004 veröffentlicht werden, fanden sich wieder einige besonders Interessierte, die Deutschland bereits Wochen zuvor in einen erneuten Pisa-Dyskalkuliewahn versetzen wollten. Teilweise ist ihnen dies gelungen, denn was ab Mitte November 2004 in die Öffentlichkeit lanciert wurde, war einmal mehr typisch deutsch: Wir sind mal wieder die Schlechtesten, sollten eigentlich in Sack und Asche gehen. Daß im Zuge der OECD- und Pisa-Studien oft genug Äpfel mit Birnen verglichen werden und daß Deutschland angeblich immer ganz hinten liegt, daran haben wir uns schon gewöhnt. Was uns darüber hinaus manche Pisa-Interpreten sonst noch auftischen wollen, grenzt oft an statistischen Analphabe-tismus. „Deutschland zurückgefallen“ und „Deutschland weiter abgerutscht“, so tönte es etwa Anfang Juli 2003 anläßlich einer angeblich neuen Pisa-Auswertung. Faktum war: Zwölf weitere Staaten bzw. Regionen wurden 2002 nachgetestet, darunter Hongkong. Ergebnis: Hongkong setzte sich in der Tabelle vor Deutschland, die elf anderen Nachgetesteten landeten hinter Deutschland. Dennoch titelten mehrere Zeitungen und Magazine: „Schüler bei Pisa weiter zurückgefallen“. Zurückgefallen hieß schlicht und einfach: im Lesen von 21 auf Platz 22. Tatsache ist jedoch: jetzt war dies für Deutschland nicht mehr Platz 21 unter 31, sondern Platz 22 unter 43. Am deutschen Pisa-Wert selbst hatte sich nichts, rein gar nichts geändert. Frage also: Wenn es denn nur um den Rang ginge, was ist dann besser – ein Platz zwischen dem mittleren und dem hinteren Drittel oder ein Platz exakt in der Mitte der Tabelle? Ein anderes Beispiel vom 5. März 2003: An diesem Tag meldeten Zeitungen: „Neuer Pisa-Bericht zeigt: Lehrer bewerten dieselbe Leistung unterschiedlich – Noten wenig aussagekräftig“; „Nicht einmal die Mathenoten sind objektiv“; „Neue Pisa-Studie – Viele Zensuren werden beliebig vergeben“. Solche Interpretationen liegen völlig daneben. Die Korrelation zwischen Pisa-Wert und Mathematiknote liegt innerhalb eines Bildungsganges deutschlandweit schließlich bei minus 0,43; das heißt, mit nur 18 Prozent gemeinsamer Varianz messen Pisa und Mathe-matiknote dasselbe. Die Korrelation zwischen Pisa-Wert und Deutschnote liegt innerhalb eines Bildungsganges deutschlandweit sogar nur bei minus 0,25; das heißt, mit nur sechs Prozent gemeinsamer Varianz messen Pisa und Deutschnote dasselbe. Die Behauptung, Pisa zeige, daß die Notengebung in den Schulen willkürlich sei, ist also völlig abwegig. ……………………………. Da wird selektiert, akzentuiert, interpretiert, manipuliert, daß sich die Balken biegen – von einem Kartell, bestehend aus wenigen Politikern, sogenannten OECD-Koordinatoren, Publizisten und Gewerkschaftlern. ……………………………. Wenn Schüler mit ein und derselben Pisa-Testleistung in den Schulzeugnissen in Mathematik unterschiedliche Noten haben, so ist dies zunächst völlig erwartungsgemäß, denn in Pisa wurden nicht konkrete Schulleistungen gemessen, sondern Basisqualifikationen. Im Grunde entspricht das der Tatsache, daß Schüler mit vergleichbarem Intelligenzquotienten sehr unterschiedliche Noten haben können. Näher zu analysieren ist hier allenfalls die Frage, inwieweit die Notengebung von Bundesland zu Bundesland differiert. Aus der TIMS-Studie und aus der Erfahrung mit Schülern, die während ihrer Schullaufbahn das Bundesland wechseln, weiß man hinreichend, daß dies der Fall ist. Zudem ist die Variabilität in der Noten-gebung vor allem in Bundesländern mit relativ unverbindlichen Lehrplänen und ohne zentrale Abschlußprüfung besonders ausgeprägt. (…) Wahrscheinlich ist auch Bosheit im Spiel – schön verkleidet mit Hilfe einer ritualisierten Empörungs- und Betrof-fenheitsrhetorik. Tatsächlich geht es im absurden Pisa-Theater mit seinen marionettenhaft agierenden Gouvernanten um die Deutungshoheit und um die Lufthoheit an vermeintlichen Bildungsstammtischen. Und obwohl Pisa nur Deskriptives liefert, tun manche so, als biete sie verbindlich Normatives. Da kommen eben alte Träume zu neuer Blüte. Pisa wird somit vielfach ideologisch instrumentalisiert – und zwar kartellmäßig. Ein Kartell ist ja bekanntermaßen ein Zusammenschluß zum Zweck der Erlangung einer Monopolstellung. An diese Definition von „Kartell“ fühlt sich erinnert, wer sich so manche öffentliche Pisa-Deutungen ansieht: Da wird selektiert, akzentuiert, interpretiert, manipuliert, daß sich die Balken biegen – nicht von den Wissenschaftlern, sondern von einem Kartell, bestehend aus wenigen Politikern, sogenannten OECD-Koordinatoren, Publizisten und Gewerkschaftlern. Diese sind ständig am Werk, das deutsche Bildungswesen mit säuerlicher Miene in Grund und Boden zu reden und zu rechnen. In der Absicht, die Einheitsschule für Deutschland herbeizuschreiben, giert das Pisa-Deutungskartell geradezu nach schlechten Pisa-Nachrichten für Deutschland. Verwendet werden dabei alle möglichen Marginaldaten, die sich irgendwie aus dem Zusammenhang reißen lassen. In alberner Weise betätigt man sich dabei selbstreferentiell, das heißt, man zitiert sich fortlaufend selbst. Bildungsideolo-gische UraltKalauer aus den siebziger und achtziger Jahren müssen herhalten, und zwar ohne Rücksicht darauf, daß die damaligen Bildungsvisionen (…) bereits dreißig Jahre vor ihrer Neuauflage schon überholt waren. (…) Wie Hiob, nur weniger geduldig, müssen die Pisa-Interpreten offenbar leiden, und von Amts wegen scheinen sie zur üblen Laune verdonnert. Positive Meldungen sind dem Kartell zu trivial, wahrscheinlich sogar zuwider. Deshalb faßt man Meldungen über das gute Pisa-Abschneiden der Süddeutschen ungern an. Was müssen die Damen und Herren gelitten haben, diese Meldung denn doch bringen zu müssen. Ansonsten steht ein großer Teil der öffentlichen Pisa-Darstellung kurz davor, zur simplen Reklame für die Gesamt-, Gemeinschafts- und Einheitsschule zu werden. Denn selektiver und tendenziöser kann öffentliche Debatte kaum noch sein. Am allerliebsten aber stochern die Pisa-Bewegten im Nebel herum. Am liebsten halten sie sich mit Vorab-Teil-Veröffentlichungen und Spekulationen auf – wahrscheinlich um für die eigentliche Veröffentlichung gleich Pflöcke eingerammt zu haben. Was davon zu halten ist, sagt der deutsche Koordinator der Pisa-2003-Studie, Manfred Prenzel: Er kritisiert die permanenten Vorabmeldungen als nicht korrekt sowie als methodisch problematisch und unverantwortlich. Vor allem tadelt er solche Veröffentlichungen, weil sie bereits in der Grundanlage falsch und mit ihren Rangplatzvergleichen keineswegs aussagekräftig seien. Josef Kraus , Diplom-Psychologe, war fünfzehn Jahre Gymnasiallehrer und ist heute Oberstudiendirektor. Seit 1987 ist er Präsident des Deutschen Lehrerverbandes. Bei dem Beitrag hier handelt es sich um einen leicht gekürzten Text aus seinem aktuellen Buch „Der Pisa-Schwindel. Unsere Kinder sind besser als ihr Ruf“ (München 2005, 247 Seiten, gebunden, 16,90 Euro), den wir mit freundlicher Genehmigung des Signum-Verlages nachdrucken.

Probeabo JF 2021 Gratis lesen

Wenn Ihnen der Artikel gefallen hat: Unterstützen Sie die JF mit einer Spende.

Der nächste Beitrag

ähnliche Themen
Hierfür wurden keine ähnlichen Themen gefunden.
aktuelles