oder: Warum beim Schreiben von Leitartikeln logisches Denken helfen würde
Im Spiegel vom 29.10.2025 titelt Armin Himmelrath, Künstliche Intelligenz (KI) gehöre nicht nur als Thema, sondern als technisches Hilfsmittel ins Abitur. Analoge Klausuren seien ein Irrweg. Die Argumentation ist so technikdeterministisch wie in der Sache falsch. Replik auf einen Spiegel-Leitartikel.
Der seit November 2022 geschickt inszenierte Hype um generative KI (genAI) und Bots wie ChatGPT ist nicht zuletzt ein Phänomen der Boulevard-Presse. Die zugrunde liegende Technik ist über 70 Jahre alt, von Norbert Wieners Kybernetik über die Umbenennung in Artificial Intelligence (AI) 1956 samt „programmiertem Lernen“ und dem ersten ChatBot „Eliza“ von Joseph Weizenbaum, den Expertensystemen aus den 1980er Jahren und derzeit die generative KI (genAI), die vordergründig Dinge kann, die bislang Menschen gemacht haben: Texte schreiben oder Videoclips drehen. Auf jeden KI-Hype folgte ein KI-Winter, die Ernüchterung, weil die ganzen Versprechen der ach so mächtigen Technik nicht erfüllt werden. Ein um Fakten bemühter Journalistenkollege der SZ schrieb im November 2023:
„Fachleute sind zwar wenig beeindruckt. Sie wissen seit Jahren, wozu KI fähig ist, alle Bestandteile von ChatGPT lagen bereit. (…) [Aber KI füllt; rl] für das Silicon Valley gerade eine wichtige Lücke. Sie liefert der Tech-Branche endlich wieder eine Großerzählung, der zufolge die goldene Zukunft von Tech-Unternehmen geschaffen wird.“ (Brühl 2023, S. 18)
Es geht um fiktive, digitale Märkte. (1) Es geht, einmal mehr, um nicht haltbare Versprechen durch sogenannte „künstliche Intelligenz“, die im Kern nichts anderes ist als automatisierte Datenverarbeitung, um Messen, Steuern; Regeln – nicht nur von technischen Prozessen, sondern auch von Organismen und Sozialgemeinschaften. Das ist das Prinzip der zugrundeliegenden Kybernetik von Norbert Wiener (1948), der „Steuermannskunst“. Techniken zur Verhaltenssteuerung von Menschen ließen sich schlecht vermarkten. Aus Imagegründen und um das Einwerben von Geldern zu erleichtern benannte man sie 1956 in „Artificial Intelligence“ um. Und nicht zuletzt aus Profitstreben wurden der Automatisierungstechnik von Anfang an Eigenschaften hinzugedichtet, die diese Technik weder erfüllen konnte noch heute erfüllen kann. Darum das Zusatzattribut der „Intelligenz“.
Zwar phantasiert jemand wie Marc Andreessen davon, dass „KI die Welt rette“ und jede und jeder ein allgegenwärtiges KI-Helferlein haben werde, aber das wird nicht glaubwürdiger dadurch, dass Andreessen&Horowitz als Venture Capitalists in genau die KI-Unternehmen investieren, die die Heilsversprechen einlösen sollen.
Herolde der Tech-Konzerne
Statt nüchterner Analysen und technischer wie historischer Einordnung gefallen sich einige Vertreter der schreibenden Zunft offenbar als Herolde der Tech-Konzerne – und blenden die Erfahrungen und Studien der letzten drei Jahre konsequent aus. Waren die Technikbegeisterung und der ungetrübte Fortschrittsglaube bei der Veröffentlichung generativer KI-Bots wie ChatGPT im November 2022 vielleicht einfach nur unbedarft, müsste eine Berichterstattung drei Jahre später deutlich reflektierter argumentieren und bereits absehbar Folgen berücksichtigen. Wenn es im Beitrag heißt:
„ChatGPT und Co. [sind; rl] im Alltag der Schülerinnen und Schüler – und übrigens auch vieler Lehrkräfte – längst angekommen. Was mit KI gemacht werden kann, wird gemacht: von Übersetzungen, Textanalysen und Zusammenfassungen bis hin zur Erstellung von Präsentationen und dem Entwurf ganzer Unterrichtsreihen. Und dann soll im Abitur trotzdem nur in einem analogen, abgeschotteten Rahmen in Form einer handschriftlichen Klausur das Wissen der Prüflinge abgefragt werden?“
ist die Antwort: Ja. Andernfalls bestimmen auch bei KI-Tools wieder die IT-Konzerne, dass ihre Produkte im Unterricht und in Prüfungen eingesetzt werden, wie es ihnen bislang bei PCs, Laptops oder aktuell Tablets gelungen ist. Neue Produkte kommen auf den Markt, Schulen sind begehrte Absatzmärkte, willfährige „technikaffine“ Lehrkräfte (sich selbst „Bildungsinfluencer“ nennend), technikgläubige Schulträger und Bildungsverantwortliche plappern nach, was die Produzenten und ihre Marketingabteilungen vorgeben, investieren Milliardenbeträge für IT (Digitalpakt Schule I + II) – und blenden aus, dass die Schulleistungen parallel permanent sinken, wie die die immer zahlreicheren Bildungsstudien – zuletzt der IQB-Bildungsbericht 2024 – zeigen. Aber das eine – Digitalisierung und Ökonomisierung der Bildungseinrichtungen – hat mit dem anderen – immer mehr Schülerinnen und Schüler erreichen nicht einmal mehr die Mindeststandards in elementaren Kulturtechniken – nichts zu tun. Oder etwa doch?
Allgemeine Hochschulreife
Das Abitur bescheinigt jungen Menschen die allgemeine Hochschulreife und Studierfähigkeit. Es berechtigt, sich um jeden Studienplatz einer deutschen Hochschule oder Universität zu bewerben (Hochschulen in Europas Nachbarländern stellen z.T. zusätzliche Anforderungen). Bei Abiturprüfungen wird nicht getestet, ob man einen Rechner bzw. einen Bot bedienen und einen Prompt formulieren kann, sondern ob man sich fachlich, strukturiert und logisch denkend mit Fachinhalten auseinandergesetzt hat und dazu Fragen ohne fremde Hilfe beantworten, die Antwort kohärent und korrekt formulieren kann. Gewöhnt man Schülerinnen und Schüler stattdessen daran, Aufgaben nur mit Hilfe von Rechnern und Bots zu lösen (wie es Andreessen mit dem allgegenwärtigen Bot formuliert), werden sie Aufgaben ohne technische Hilfe gar nicht mehr lösen können.
Für Himmelrath ist es eine absurde Vorstellung, Abiturklausuren ohne Internet und KI-Bot zu schreiben. Das wäre „ungefähr so, als würde man heute am Ende der Fahrschulzeit beweisen müssen, dass man eine zweispännige Kutsche lenken kann“. Das klingt lustig, ist aber die falsche Metapher. Korrekt müsste es heißen: Ihr braucht keinen Führerschein und müsst nicht selbst lenken, ihr nutzt ja selbstfahrende Autos. Nur könnt ihr leider weder die Route noch das Ziel festlegen, weil das Auto nur über definierte Routen zu eingespeisten Destinationen navigieren kann. Ich nenne das wissentliche und vorsätzliche Selbstentmündigung.
Weiter heißt es, Unterricht und Prüfungsformate müssten an die Welt des 21. Jahrhunderts angepasst werden. Die Anpassung der Prüfungsformate ist eine Forderung der Bertelsmann Stiftung (Dietrich et.al. 2025). Gehört der Spiegel als Presseorgan mittlerweile zur Stiftung oder dem Medienkonzern, der mit Digitaltechnik und digitalen Bildungsangeboten Milliardenumsätze macht?
Oder der Leitartikler verkennt den eminenten Unterschied zwischen einer validen, wissenschaftlichen Quelle mit dem intransparenten Ergebnis einer KI-Abfrage, bei der weder die Algorithmen noch die Datenbasis noch die wertenden Parameter bekannt sind: „So wie heute ordentliche Literaturangaben Standard sind, werden es in Zukunft wohl nachvollziehbar dokumentierte Prompts sein“, führt Himmerlrath aus. Sein Vorschlag bedeutet für die Schulpraxis: Lasst den Bot die Antworten geben – und die Prüflinge hoffen, dass die Antwort nicht zu den 40 Prozent Falschantworten und Halluzinationen gehört, für die Bots heute schon bekannt sind (Schieb 2025).
Denn die Fehlerquote der Bots ist nicht nur jetzt schon für Schule und Unterrichtsmaterial inakzeptabel hoch, sondern wird durch ganze Bot-Farmen in Frage gestellt, die aus reinen Propagandazwecken Unmengen von Texten generiere, die nie ein Mensch zu Gesicht bekommen soll und wird, sondern die lediglich Datenbanken der Large Language Models (LLM) korrumpieren (sollen) – was durch das massive und ungefilterte Einspeisen von Texten aus dem Netz auch wunderbar gelingt. (2) Eine KI ist ja nur ein Rechenprogramm und „versteht“ exakt nichts von dem, was nach statistischen Parametern und Mustererkennung ausgewertet und zu statistisch (nicht semantisch!) wahrscheinlichen Texten, Bildern oder Sounds zusammen kopiert wird Dabei entstehen nur Varianten des Bekannten, nichts Neues, sondern immer nur Collagen aus gespeicherten Versatzstücken. In der Schule zu vermitteln ist daher vor allem, dass diese Form von KI unbrauchbar ist sowohl für den Unterricht selbst (40% und mehr Fehlinformationen) wie für Prüfungen (wenn es um mehr geht als Repetition).
Wenn Argumente fehlen
Auch der beliebte Seitenhieb auf Wissenschaftler und deren Forderung nach einem Moratorium darf nicht fehlen („Sie bedienen damit vor allem diffuse Ängste vor Verdummung und Kompetenzverlusten“) und blendet vorsätzlich aus, dass die Folgen des KI-Einsatzes in Schulen und Hochschulen mittlerweile vielfach wissenschaftlich belegt sind. Genannt seien exemplarisch die Studien zur kognitiven Schuld des des Massachusetts Institute of Technology (MIT), die Empfehlungen der Leopoldina (Halle) zum Schutz von Minderjährigen in sozial nur genannten Medien – ein Bericht, in dem deutlich mehr Fehlentwicklungen durch digitale Endgeräte und Dienste benannt werden als nur der verfrühte und damit kontraproduktive Einsatz von KI-Tools oder grundlegender der Beitrag von Sabine Anand und Birgit Spies zu Gütekriterien und Grenzen wissenschaftlicher Texterstellung mittels generativer Künstlicher Intelligenz. Denn der selbstentmündigende Einsatz von KI-Tools betrifft ja auch die akademische Lehre – auf Seiten der Studierenden und der Lehrenden.
Zu nennen wäre ergänzend der IQB-Bildungsbericht 2024, der die Abwärtstendenz der Lernleistung lediglich konsequent fortschreibt oder das Interview mit Prof.‘in Dr. Susanne Lin-Klitzing, Bundesvorsitzende des Deutschen Philologenverbands, mit der BILD-Zeitung vom 16.10.2025. Sie spricht von einem drohenden Sprachkollaps, weil Kinder und Jugendliche immer früher SprachBots benutzen, statt selbst zu formulieren. (Renommierte Bildungs-Expertin schlägt Alarm: „Uns droht ein Denk- und Sprach-Kollaps durch KI“; )
„Mangelndes Vorlesen im vorschulischen Alter, übermäßige Nutzung von sozialen Medien, damit einhergehende immer geringere Aufmerksamkeitsspannen, viel Bildschirmzeit und übermäßige und unsachgemäße Nutzung von KI werden Denkfaulheit und Spracharmut bei künftigen Generationen erzeugen“ (Bild, 16.10.25).
Wer nicht lesen und schreiben, nicht zuhören und wer nicht logisch denken kann, weil er weder einen Wortschatz entwickelt (hat) noch die Sprachlogik beherrscht, kann weder selbst formulieren noch über Texte reflektieren oder sachlich diskutieren. So verhindert man Bildungsbiografien durch den viel zu frühen Einsatz von Digitaltechnik statt die elementaren Kulturtechniken (Lesen, Schreiben, Zuhören) durch eigene Praxis zu verinnerlichen. Die aktuell in Schulen benutzte Informationstechnologie und die KI-Tools sind daher nicht nur die Instrumente der Konsumentensteuerung (sozial nur Aufmerksamkeits- und Konzentrationsvernichter), sondern in der Hand der US-Tech-Monopole ein Herrschaftsinstrument der Bildungssteuerung und Bildungsverhinderung, weil nur konsumiert wird, statt das selbständige Denken, Konzipieren und Formulieren von Texten zu üben. Siehe dazu:
Wenn der Chatbot das Denken übernimmt … (Teil I)
Das Geschäft mit KI und ChatGPT oder: Warum automatisierte Datenverarbeitung keine Intelligenz ist, in Schulen weiter selbst gelernt werden muss – und Anstrengung lohnt.
Wenn der Chatbot das Denken übernimmt … (Teil II)
KI und Unterricht – Fragen und Antworten.
Als abschließender Hinweis auf die aberwitzige „Argumentation“ sei auf die Zeitachse verwiesen: Das Ganze sei erst für den Abi-Jahrgang 2030 geplant, „mit dreijähriger Vorlaufzeit im Unterricht und dann auch nur in ausgewählten Kursen und Prüfungen, nicht in der Standardklausur im Leistungskurs.“ Weiß der Autor nicht, dass niemand weiß noch wissen kann, welche IT- und KI-Tools in drei oder gar fünf Jahren im Einsatz sind und ob davon irgendetwas für den Unterricht relevant ist? Das Unterrichten orientiert sich ja nicht an den kommerziell forcierten Entwicklungen der IT oder KI, sondern an der Frage, was junge Menschen lernen und können müssen, um selbstbestimmt und reflektiert in einer hochindustrialisierten und in weiten Teilen digitalisierten Umgebung handeln und entscheiden zu können. Himmelrath gehört damit zu den Boulevard-Journalisten, die so leistungsstark wie faktenfrei das Hohelied der IT-Wirtschaft singen. Man fragt sich, zu wessen Nutzen und in welchem Auftrag.
Schulen sollten und dürfen nicht den Vorgaben und Interessen der IT-Wirtschaft und den Tech-Milliardären folgen, sondern müssen den entgegengesetzten Weg gehen: das Selber-Denken lehren und trainieren. Stift und Papier genügen, um Fragen zu beantworten, wenn man sich auf eine Prüfung vorbereitet hat. Folgt die Bildungspolitik hingegen den Vorgaben der IT-Wirtschaft und den Vorstellungen Tech-Milliardäre, gehören sie zu den Totengräbern der Demokratie, wie es das „Project 2025“ vorsieht und z.B. David A. Graham, Rainer Mühlhoff oder Douglas Rushkoff explizit beschreiben.
Anmerkung
1) Nur ein Beispiel für ausgesprochen riskante, weil durch keinerlei Gegenwerte abgesicherte Milliardenspekulationen: „OpenAI schreibt weiter Milliardenverluste. Das zeigen die aktuellen Quartalszahlen von Microsoft. Die Dimensionen sind bemerkenswert: OpenAI nimmt derzeit etwa 13 Milliarden Dollar im Jahr ein. Gleichzeitig hat das Unternehmen vertraglich bereits rund eine Billion Dollar für mehrere Projekte zugesagt.“ (Heise Newsletter 3.11.2025). Die FAZ schreibt über die „große Angst vor der KI-Blase“ (https://www.faz.net/aktuell/wirtschaft/unternehmen/meta-openai-google-die-grosse-angst-vor-der-ki-blase-accg-110759189.html): „Techkonzerne investieren Hunderte Milliarden Dollar in Rechenzentren für Künstliche Intelligenz – und nutzen dafür neuerdings spezielle Finanzvehikel, um die Bilanz zu schönen. Einblicke in die schwindelerregende Finanzakrobatik hinter dem KI-Boom“ (Sachse, FAZ vom 02.11.2025). Fondsmanager warnen vor einer KI-Blase (https://www.n-tv.de/wirtschaft/Wir-sind-auf-dem-Weg-zu-einer-KI-Blase-aber-nicht-kurz-vor-dem-Platzen-article26133631.html) etc. Es sei nur unklar, wann die Blase platze. Die US-Regierung kündigte im Januar 2025 Investitionen von 500 Mrd. Dollar für das KI-Projekt „Stargate“ an (https://www.tagesschau.de/wirtschaft/digitales/stargate-ki-trump-100.html).
2) Nachtrag 6.11.2025
„Seit November vergangenen Jahres [2024; rl], das haben gleich mehrere Studien ergeben, zirkulieren im Text mehr Netze, die von künstlicher Intelligenz als von Menschen geschrieben wurden. (…) Erste Schätzungen gehen davon aus, dass der Anteil KI-generierter Inhalte im Netz bis zum kommenden Jahr auf 90 Prozent steigen könnte.“ Andrian Kreye (2025) Willkommen im Sumpf, in: SZ vom 5.11.2025, S.13
Michael Moorstedt (2025) Der KI – Effekt: Voll und müde. Automatisch erzeugte Inhalte versprechen billig produzierte Sichtbarkeit im Netz. Inzwischen sind Nutzer vom Spam aus der Maschine zunehmend genervt. Plattformen reagieren jetzt mit Block-Funktionen oder Kennzeichnung von menschlichen Inhalten., in: SZ vom 6.11.2025, S. 27; (6.11.2025)
Literatur und Quellen
Andreessen, Marc (2023) Why AI Will Save the World; https://a16z.com/2023/06/06/ai-will-save-the-world/ (19.6.2023).
Diedrich, M., Maaz, K., Albustin, R., Beutel. S.-I., Burba, D.,Klein, G., Lazaridis, V., Pikowsky, B., Schott, E., Sliwka, A.,Wehr, T. (2025). Empfehlungen für eine veränderte Lern- und Prüfungskultur. Plädoyer für mutige Entscheidungen. Bertelsmann Stiftung (Hrsg.). Gütersloh
Böhme, Gottfried (2023) KI im Unterricht: ChatGPT bricht der Schule das Rückgrat, in: FAZ vom 14.6.2023, S. 9; (aufgerufen am 15.6.2023).
Brühl, Jannis (2023a). Ein Jahr Chat-GPT: Keine Hoffnung auf Luxuskommunismus, in: SZ vom 30.11.2023, S. 18.
Graham, David A. (2025) Der Masterplan der Trumpregierung. Project 29025: Wie ein radikales Netzwerk in Amerika die Macht übernimmt
Himmelrath, Armin (2025) Digitale Schulen: Künstliche Intelligenz gehört ins Abitur, SPIEGEL-Leitartikel von Armin Himmelrat, in: Der Spiegel vom 29.10.2025; (2.11.2025)
Mühlhoff, Rainer (2025) Künstliche Intelligenz und der neue Faschismus. [Reihe: Was bedeutet das alles?], Reclam – KI und AGI (Artificial General Intelligence) – Wie Tech-Milliardäre Macht und Zukunft formen
Rushkoff, Douglas (2025) Survival of the Richest. Warum wir vor den Tech-Milliardären noch nicht einmal auf dem Mars sicher sind
Schieb, Jörg (2025) Künstliche Intelligenz KI erfindet jede dritte Antwort. Eine neue Studie der Europäischen Rundfunkunion zeigt alarmierende Fehlerquoten bei populären KI-Chatbots. Die Systeme erfinden regelmäßig Informationen und geben sogar falsche Quellen an. Von Jörg Schieb, WDR; , Tagesschau, 27.10.2025; (1.11.2025)
Der Beitrag als PDF: Menschliche Intelligenz, nicht KI, gehört ins Abitur