Bildung und KI : Weckt ChatGPT die Schule auf?

Was für ein Wissen wird gebraucht, um nicht von Computern ins Abseits gestellt zu werden? Nur wenn die Menschen und deren persönliche Erfahrungen im Mittelpunkt des Bildungssystems stehen, kann unterrichtet werden, was die Maschinen nicht können.

Dieser Artikel erschien am 07.05.2023 in der Frankfurter Allgemeinen Zeitung
Mark Siemons
Künstliche Intelligenz: ChatGPT
©Unsplash

Der ChatGPT-Schock könnte für die Schulen noch weit tiefer reichen als nur bis zur Sorge um Urheberrechtsverletzungen oder zu der Befürchtung, Prüflinge könnten den Chatbot zum Betrug benutzen. Die dahinter lauernde – bisher aber kaum diskutierte – Beunruhigung ist viel grundsätzlicher: Was, wenn sich das bisherige Bildungssystem durch die neuen KI-Entwicklungen auf einen Schlag als überholt erwiese? Ein Bildungssystem, das spätestens seit seiner Orientierung an den Maßstäben der PISA-Studien auf etwas ausgerichtet ist, das die Maschinen womöglich schon jetzt viel besser können?

Tatsächlich verblüfft es, wie ähnlich sich die Funktionsbeschreibungen von „Large Language Models“ wie ChatGPT einerseits und andererseits jene Texte sehen, in denen die obersten Schulstrategen definieren, wie sie sich den Unterricht vorstellen. Worauf bezieht sich wohl das „Reinforcement Learning with Human Feedback – eine Methode, die menschliche Unterweisungen und Präferenz-Vergleiche nutzt, um das Modell zum erwünschten Verhalten zu führen“? Man muss „Reinforcement Learning“ nur als bestärkendes Lernen übersetzen und „Modell“ gegen „Schüler/Schülerin“ austauschen, dann hat man eine Darstellung des Lernprozesses, wie sie in gegenwärtigen Schulprogrammen stehen könnte.

In Wirklichkeit aber handelt es sich um eine Auskunft der Firma OpenAI, wie sie ihr Produkt ChatGPT optimiert hat. „Reinforcement Learning“ ist ein Fachausdruck für den Selbstlernprozess von Maschinen, bei dem nicht jeder einzelne Schritt nach richtig und falsch bewertet wird, sondern eine ganze Abfolge von Schritten in Hinblick auf ein definiertes Gesamtziel. Das Programm AlphaGo etwa konnte es dadurch schaffen, im Spiel Go, das ungleich komplexer ist als Schach, den besten menschlichen Spieler zu besiegen. „Human Enhancement“ bedeutet, dass in diesen Prozess nun auch noch menschliche Kontrollstellen zwischengeschaltet sind, die ausdrücken können, welche Problemlösungswege sie bevorzugen.

Eine lückenlose Standardisierung

„Werden Mindeststandards über einen festzulegenden Zeitraum verfehlt, müssen klar definierte Maßnahmen ausgelöst werden“: Das klingt wie eine Anweisung für die Programmierung eines solchen maschinellen Lernprozesses. Es handelt sich aber um eine Empfehlung, die die „Ständige Wissenschaftliche Kommission der Kultusministerkonferenz“ (SWK) für Schulen abgegeben hat, die von Menschen besucht werden: „Um eine Sicherung der Mindeststandards zu gewährleisten, müssen Kompetenzen regelmäßig erfasst und auf verschiedenen Ebenen Rückmeldungen darüber gegeben werden, inwieweit sie erreicht werden.“ Von „Screening-Verfahren“ und „Instrumenten der Individualdiagnostik“ ist die Rede.

Was bedeutet es, dass die Sprache der Konzepte, die die Kultusminister den Schulen vorgeben, kaum von der Sprache der Konzepte zu unterscheiden ist, die ein Computerunternehmen seinen Programmierern vorgibt? Offensichtlich hat sich das Bildungssystem darauf eingestellt, dass es nur mit einer Standardisierung, die so lückenlos ist wie bei einer Maschine, konkurrenzfähig sei. Deutlich orientiert sich dieses System am Bildungsideal der OECD und deren PISA-Studien, das auf den systematisch betriebenen Erwerb bestimmter für die Wirtschaft wichtigen „Kompetenzen“ ausgerichtet ist. Sein Rückgrat ist die einheitliche, von vornherein auf Messung und Vergleich angelegte Normierung des Unterrichts, von der gegenstandsunabhängigen Mustererkennung über fortlaufende Richtig-falsch-Unterscheidungen bis zur permanenten Überprüfung, inwiefern die Schüler mit den jeweils vorgegebenen Standarderwartungen übereinstimmen.

Was dies zum Beispiel für das Verständnis des Lesenlernens bedeutet, macht eine „Handreichung“ der Bildungsregion Berlin-Brandenburg klar. „Die Prozessebene zeigt auf, dass Lesen ein hochgradig eigenständig gesteuerter mentaler Prozess ist“, der sich wiederum in diverse Teilprozesse untergliedere, heißt es dort, und weiter: „Um diese Teilprozesse erfolgreich bewältigen zu können, bedarf es der aktiven Beteiligung der ganzen Person beim Lesen. Mithilfe der Subjektebene wird es möglich, Wissen, Beteiligung und Reflexion zu erfassen und zielgerichtet weiterzuentwickeln.“ Dieser Text wirkt so, als solle einer Maschine erklärt werden, wie ein Mensch funktioniert. Da sich der Text aber an Menschen wendet, ist seine implizite Botschaft eine andere: In der Schule soll man sich offenbar ganz auf den Verständnishorizont einer Maschine einlassen, also erst einmal verlernen, was ein Mensch ist, um es sich dann als Schulstoff, aus der Perspektive einer Maschine gewissermaßen, von Neuem anzueignen.

Eine genormte Individualisierung

Es war schon immer ein Rätsel, wie eine solche allein an ökonomischen Kategorien ausgerichtete Standardisierung es fertiggebracht hat, sich als fortschrittlich und sogar als individualistisch auszugeben. Offiziell werden zwar eine individuelle Persönlichkeitsentwicklung und ein kritikfähiges Denken als oberste Ziele verkündet, doch erreicht werden sollen diese Ziele mithilfe einer ganz am gesellschaftlichen Status quo ausgerichteten Normierung. Gerade in diesem Selbstwiderspruch kann die instrumentelle Vernunft dann um so vollständiger triumphieren. Es rächt sich, dass sich die Bildungsdebatten der vergangenen Jahrzehnte fast ausschließlich auf Mittel konzentrierten (sei es nun den Zustand der Schulgebäude, die Digitalisierung oder die Methoden zur Herstellung von Chancengleichheit) und die Frage, was überhaupt der Inhalt der Bildung sein soll, fast ganz außer Acht ließen.

Seit ChatGPT sollte das eigentlich nicht mehr möglich sein. Würde sich herausstellen, dass die genormten Kompetenzen, auf die das jetzige Bildungssystem hinausläuft, von Computern viel besser und vollständiger erbracht werden können als von den auf sie hin konditionierten Schulabgängern, würde dessen bisher so fraglos hingenommene ökonomische Rechtfertigung in sich zusammenfallen. Dann würde der Unterricht in Wirklichkeit ja gar nicht auf den Wettbewerb vorbereiten, sondern bloß auf die Arbeitslosigkeit. ChatGPT wirft also zum ersten Mal seit Langem die Frage wieder auf, was überhaupt der Gegenstand der schulischen Bildung sein soll. Was für ein Wissen wird gebraucht, um nicht von den Maschinen dominiert und ins Abseits gestellt zu werden, sondern um sie sich im Gegenteil dienstbar machen zu können?

Diskutiert wird schon seit Längerem über ein neues Schulfach Medienkompetenz, das den kritischen Umgang mit den digitalen Apparaturen lehrt. Doch sinnvoll wäre es nur, wenn dort wie in allen anderen Fächern die Blickrichtung umgekehrt würde: wenn also Menschen nicht länger aus der Perspektive von Maschinen gemustert würden, sondern Maschinen aus der Perspektive von Menschen. Wie aber stellt man das, was menschlich ist, in den Mittelpunkt der Schule? Wer bestimmt überhaupt, was menschlich ist?

Der Spielraum der Lehrer wird kleiner

Eine vorläufige Antwort könnte lauten: jeder einzelne Mensch. Es ist ein typisches Merkmal der immer umfassenderen Standardisierung der Schulbildung, dass der den Lehrerinnen und Lehrern zugestandene Gestaltungsspielraum immer geringer wurde – und mit ihm der Spielraum der Schülerinnen und Schüler, wie sie den an sie von ganz oben gestellten Erwartungen entsprechen dürfen. Das Vertrauen in die Automatik zentral gesteuerter und vergleichbarer Vorgaben und das Misstrauen in die Unberechenbarkeit der einzelnen Menschen bedingen einander. Zweifellos ist gerade dieses Misstrauen auch der nicht geringste Grund für die gesunkene Attraktivität des Lehrerberufs.

Besonders fatal wirkt sich das dort aus, wo es um Sprache und um die durch sie vermittelten Erfahrungen geht. Die engmaschige Lenkung und die Richtig-falsch-Abfragen folgten der Logik eines Computerspiels, bemerkte der britische Soziologe William Davies in der „London Review of Books“: „Die Ideologie der messbaren Schreib- und Lesefähigkeit, kombiniert mit dem über das Gesellschafts- und Bildungsleben ausgeworfenen digitalen Netz, lässt junge Leute sich mit der Sprache, die sie benutzen, unwohl fühlen, ängstlich, was passieren könnte, wenn sie einen Fehler machen.“ Ähnlich hatten kürzlich zwanzig Pädagogikprofessoren eine Berliner Erklärung gegen eine „Verengung des Bildungsdiskurses“ veröffentlicht, die der Vielschichtigkeit des Lernens nicht gerecht werde: „Es ist an der Zeit zu fragen, ob die Methode des Messens, des Monitorings und der daraus gefolgerten Unterrichts- und Schulentwicklung nicht selbst einmal evaluiert werden sollte.“

Ein Wissen, das sich den Standardisierungen der Automaten entzieht und zum Beispiel auch etwas von Ironie, Ambiguität, Widersprüchen und Erkenntnisfreude versteht, lässt sich wohl nur vermitteln, wenn Lehrern und Schülern mehr Freiheit zugestanden wird, sie nicht nur als Administratoren eines quasi maschinellen Programms gefragt sind, sondern als Menschen, auf deren persönliche Erfahrungen es ankommt.

Eine Vision der totalen Überwachung

Doch ob die zuständigen Institutionen ChatGPT tatsächlich diese Lehre ablauschen werden, ist fraglich. Schon seit Jahren ziehen die Propagandisten des standardisierten Lernens aus der Künstlichen Intelligenz den entgegengesetzten Schluss. Auf dem Weltwirtschaftsforum in Davos sprach sich Andreas Schleicher, der Bildungsdirektor der OECD, 2021 für eine „Transformation“ der Schule aus, in der es dank einer fortgeschrittenen Technologie, die „Körperinformationen, Gesichtsausdrücke und Gehirnsignale“ verwertet, möglich sein werde, „Wissen, Fähigkeiten und Haltungen unverzüglich zu bewerten und zu bescheinigen“. Die Standardisierung würde in dieser Vision einer totalen, Prüfungen überflüssig machenden Überwachung also ihre größtmögliche Perfektion erreichen und zugleich mit einer „vollständigen individuellen Personalisierung des Contents“ zusammenfallen. Das erinnert an den Roman „Walden Two“, den der Behaviorist B. F. Skinner 1948 schrieb: die Utopie einer Gesellschaft, deren Glück auf einer erfolgreichen, wissenschaftlich permanent neu evaluierten Verhaltenssteuerung beruht. Menschen kommen da nur als Reiz-Reaktions-Maschinen in Betracht, deren Inneres unerheblich ist.

Davon scheinen auch jene Bildungsforscher inspiriert zu sein, die für die Anwendung der sogenannten Eye-tracking-Technik im Unterricht plädieren: Damit lasse sich sowohl der Kompetenzstand der Schüler beim Lesen als auch die Moderationsfähigkeit der Lehrer beim Blickkontakt mit ihrer Klasse fortlaufend kontrollieren und steuern. Offenbar ist da die Zuversicht bestimmend, wenn Menschen zu einer Art Supermaschine erzogen würden, könnten sie ihren Apparaten immer eine Nasenlänge voraus sein.

Es stehen also Richtungsentscheidungen von sehr prinzipieller Art an. Sogar der sonst eher technikoptimistische „Economist“ wies jetzt auf einen Aufsatz von Sigmund Freud hin, in dem dieser als Inbegriff des „Unheimlichen“ den „Zweifel an der Beseelung eines anscheinend lebendigen Wesens“ benannte – „und umgekehrt darüber, ob ein lebloser Gegenstand nicht etwa beseelt sei“. Welcher von beiden Unheimlichkeiten wir am Ende zuneigen, ob wir eher an der Lebendigkeit des Menschen zweifeln oder an der Leblosigkeit der Maschine verzweifeln, davon wird für die Schule der Zukunft viel abhängen.