Humane Intelligenz und Autonomie …

… statt Steuerung durch IT und KI

Von Ralf Lankau, in: Fromm Forum (Deutsche Ausgabe – ISSN 1437-0956), 29 / 2025, Tübingen (Selbstverlag), pp. 126-143. Copyright © 2025 by Prof. Dr. phil. Ralf Lankau, Hochschule Offenburg, Fakultät Medien; DE–77652 Offenburg; E-Mail: ralf.lankau[at]lankau.de

Beitrag (18 Seiten) als PDF: Lankau (2025) Humane Intelligenz und Autonomie statt Steuerung durch IT und KI

Article in English (18 pages): Lankau (2025) Human intelligence and autonomy instead of control by IT and AI


«Ich vergleiche unseren heutigen naiven Umgang mit digitalen Technologien gern mit der Art, wie die amerikanischen Ureinwohner die spanischen Eroberer willkommen geheißen haben. Diese Menschen hatten keine Chance, die Bedeutung der Ankunft einer neuen Macht zu erahnen, die ihre spätere Unterwerfung mit sich brachte.» (Zuboff 2018b)

Prolog: Die Schule

Der Wissenschaftler und Science fiction Autor Isaac Asimov publizierte 1954 eine kurze Geschichte über die «Schule der Zukunft». Im Jahr 2157 gebe es gar keine Schulen mehr, weil neben jedem Kinderzimmer ein kleiner Schulraum eingerichtet sei, in dem die Kinder und Jugendlichen von einem mechanischen Lehrer (einer Maschine mit Bildschirm und einem Schlitz zum Einwerfen der Hausaufgaben) unterrichtet würden. Diese Lehrmaschine sei perfekt auf die Fähigkeiten des jeweiligen Kindes eingestellt und könne es daher optimal beschulen. Nur: Maschinen können kaputt gehen. Die elfjährige Margie wird von ihrem mechanischen Lehrer wieder und wieder in Geographie abgefragt, gibt die richtige Antwort, bekommt aber jedes Mal eine schlechtere Note. Sie verzweifelt, die Mutter sieht es und ruft den Schulinspektor, um die Maschine zu reparieren.

«Margie hatte gehofft, dass er ihn nicht wieder zusammenbringen würde, aber er hatte Bescheid gewusst, und nach einer Stunde oder so hatte das Ding wieder dagestanden, groß und schwarz und hässlich, mit einer großen Mattscheibe darauf, wo alle Lektionen gezeigt wurden, und mit einem Lautsprecher daneben, der die Fragen stellte. Aber das war nicht das Schlimmste. Der Teil, den Margie am meisten hasste, war ein Schlitz, in den sie alle Hausarbeiten und die Antworten auf seine Fragen stecken musste. Alles das musste sie in einem Lochcode schreiben, den sie mit sechs Jahren gelernt hatte, und der mechanische Lehrer rechnete die Noten im Nu aus.» (Asimov 2016, S. 146)

In wenigen Sätzen beschreibt Asimov, was heute zum Teil bereits Praxis ist oder, ginge es nach den Anbietern solcher Systeme, Unterrichtspraxis werden soll. Kinder sitzen an Bildschirmen und werden von Apparaten beschult. Unterrichten und Prüfen wird an Maschinen und Software delegiert und entpersonalisiert. Lernen selbst wird auf automatisiert Abprüfbares reduziert, weil weder eine Lernmaschine noch eine Software irgendetwas von dem «versteht», was sie da am Bildschirm ausgibt. Dahinter steht die Idee der Berechen- und Steuerbarkeit von Lernprozessen: Metrik und Prognostik statt Pädagogik. Denn das, was Norbert Wiener 1948 Kybernetik nannte und seit 1956 Artificial Intelligence (dt. künstliche Intelligenz, KI) heißt und «programmiertes Lernen» ermöglichen sollte, ist im Kern Mess- und Regelungstechnik (Messen. Regeln. Steuern.) auf Basis von Daten bzw. automatisierter Datenverarbeitung. Das Ziel ist System- und Prozessteuerung.

Kybernetik und Artificial Intelligence (AI)

Ausgangspunkt der Diskussionen über vermeintlich «intelligente» technische Systeme waren zehn interdisziplinär besetzte Macy Conferences von 1946 bis 1953 (Pias 2016). Das Ziel dieser Tagungen, zu der nur ausgewählte Wissenschaftlerinnen und Wissenschaftler geladen wurden, war es, eine Universalwissenschaft zu entwickeln, mit der man gleichermaßen die Funktionsweise des menschlichen Gehirns wie elektronischer Systeme (insbesondere Computer) beschreiben könne. Koryphäen ihrer Disziplinen wie Gregory Bateson, Heinz von Foerster, Warren McCulloch, Margaret Mead oder John von Neumann diskutierten über neuronale Netze, (Gruppen)Kommunikation und Sprache, Computer und automatisierte Mustererkennung sowie über die sich gerade etablierenden Neurowissenschaften. Norbert Wiener publizierte 1948 die mathematische Verallgemeinerung dieser «Steuerungskunst» als Buch: «Cybernetics or Control and Communication in the Animal and the Machine» (1948). Die Grundidee, die sich bis heute durch die Modelle und Anwendungen der automatisierten Datenverarbeitung (heute: KI) zieht, ist die Annahmen, man könne auch Organismen und Sozialgemeinschaften als Maschine oder technisches System beschreiben und mit entsprechenden (mathematischen) Modellen berechnen und steuern.
(Im Buch von 1950 The Human Use of Human Beings (dt. Mensch und Menschmaschine) warnt er bereits vor der menschennunwürdigen Verwendung des Menschen (S. 26f), aber die Modelle sind in der Welt […])

Das Werkzeug dafür sind die seit Mitte der 1930er Jahren entwickelten Computer (Rechenmaschinen), Datenbanken und Netzwerke. Dazu zählt das World Wide Web mit seinen Anwendungen (Apps). Auch wer ein Smartphone oder Tablet nutzt, arbeitet permanent, wenn auch unwissentlich und ungefragt mit KI-Anwendungen (Suchmaschinen, Routenplaner, Social Media Plattformen, Streamingdienste u.v.m..). Darum sollte man sich vergegenwärtigen, dass die automatisierte Steuerung von technischen Systemen, aber auch von Menschen und Sozialgemeinschaften der Kerngedanke der Kybernetik ist, auch wenn der Begriff 1956 aus Marketinggründen in «Artificial Intelligence» (AI) umbenannt wurde. Für das Versprechen, ein System mit «künstlichen Intelligenz» zu entwickeln, ließen sich einfacher Sponsorengelder einwerben als für ein Projekt «Verhaltenssteuerung von Menschen durch Computer».

Die Grundfunktion kybernetischer Systeme ist automatisierte Prozessteuerung. Daran muss erinnert werden, weil im Kontext der aktuell diskutierten generativen KI-Systeme die Grenze zwischen Mensch und Maschine in beide Richtungen aufgelöst wird und KI-Systeme von den Anbietern als «Assistent, Coach, Lehrkraft, Partner …» inszeniert werden. Auf dieses Wechselspiel aus Anthropomorphismus (die Vermenschlichung und Zuschreibung menschlicher Eigenschaften an Maschinen) und Animismus (die Zuschreibung kognitiver und mentaler Eigenschaften an Maschinen) als historischer Konstante (und Irrtum!) weist der Deutsche Ethikrat in seiner Stellungnahme «Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz» von 2023 hin (Ethikrat 2023, S. 107 f.).

Denn es ist der Mensch als (im Ursprung) soziales Wesen, der Apparaten menschliche Attribute zuweist, weil er ein (zumindest eingebildetes) Gegenüber braucht. Maschinen kommunizieren und interagieren nicht , sie funktionieren korrekt oder müssen, wie Margies Schulmaschine repariert bzw. (um)programmiert werden Die Microsoft-Deutschland-Chefin Sabine Bendiek präzisiert: «Eine KI kann viele Dinge ganz toll, aber letztlich rechnet sie auf Basis von großen Datenmengen» (Armbruster 2019). Die Vermenschlichung von (hier: Rechen-)­Maschinen bekommt ihre besondere Dynamik dadurch, dass diese Systeme bereits flächendeckend eingesetzt werden, ohne dass die Nutzerinnen und Nutzer es verhindern oder Einfluss darauf nehmen können. Siri und Cortana kann man abschalten, den Fluss der Daten nicht.

Der inszenierte Hype um die «generative KI»

Im November 2022 hat das US-Unternehmen OpenAI den Textgenerator ChatGPT ins Netz gestellt. Seither arbeiten mehr als 100 Mio. Nutzerinnen und Nutzer weltweit als kostenlose Beta-Tester. Dabei sind weder KI-Systeme noch Sprach-Bots neu. Mit Joseph Weizenbaums «Eliza» konnte man schon 1966 chatten, aber das Silicon Valley braucht nun mal ein neues «big thing»:

«30. November 2023 (SZ): Vor einem Jahr schaltete ein US-Unternehmen ein Programm online, das intern als «niedrigschwellige Forschungsvorschau» eingestuft wurde. Dann brach die Hölle los. […] Fachleute sind zwar wenig beeindruckt. Sie wissen seit Jahren, wozu KI fähig ist, alle Bestandteile von ChatGPT lagen bereit. […] [Aber KI füllt; rl] für das Silicon Valley gerade eine wichtige Lücke. Sie liefert der Tech-Branche endlich wieder eine Großerzählung, der zufolge die goldene Zukunft von Tech-Unternehmen geschaffen wird.» (Brühl 2023, S 18)

Eine Großerzählung über die goldene Zukunft durch Tech-Unternehmen … Einmal mehr wird einer Technik der Datenverarbeitung sowohl das Potential zur Welterlösung wie zum Weltuntergang zugesprochen – Heilslehre oder Doom und Dungeon? Marc Andreessen, der Anfang der 1990er Jahre den ersten grafischen Browser Netscape entwickelte (und damit das Consulting mit ermöglichte), erwartet von der KI nicht weniger als die Rettung der Welt. Im Beitrag «Why AI Will Save the World» verkündet er die gute Nachricht, dass KI die Welt nicht zerstören, sondern «vielleicht sogar retten» könne. Eine neue Ära werde beginnen:

«Jeder Mensch wird einen AI-Assistenten/Coach/Mentor/Trainer/Berater/Therapeuten haben, der unendlich geduldig, unendlich mitfühlend, unendlich sachkundig und unendlich hilfreich ist. Der AI-Assistent wird bei allen Gelegenheiten und Herausforderungen des Lebens dabei sein und die Ergebnisse eines jeden Menschen maximieren.» (Andreessen 2023)

Dank allgegenwärtiger Assistenzsysteme würden sich Wirtschaftswachstum und Produktivitätszuwachs dramatisch beschleunigen, wissenschaftliche Durchbrüche, neue Technologien und Medikamente schneller entwickelt, die kreativen Künste in ein goldenes Zeitalter eintreten, Kinder ihr ganzes Potenzial «mit der maschinellen Version der unendlichen Liebe» maximieren und selbst Kriege würden durch bessere strategische und taktische Entscheidungen kürzer und weniger blutig (ebda). Das erinnert in seinem Heilsversprechen an die «Unabhängigkeitserklärung des Cyberspace», die John Perry Barlow und die Utopie eines globalen Dorfs einer friedlichen und gewaltfreien Weltgemeinschaft (Barlow 1996).

Seltsam nur, dass renommierte Wissenschaftler vor dem unreflektierten Einsatz der KI- Systeme warnen. Mehr als 1300 IT- und KI-Experten warnten im Mai 2023 vor den Folgen dieser Technik und setzen die möglichen Gefahren durch KI mit denen der Atombombe oder einer Pandemie gleich (Center for AI Safety 2023). Mehr als 33 Tausend Wissenschaftlerinnen und Wissenschaftler fordern in einem Offenen Brief ein Moratorium (eine Denkpause) und einen interdisziplinären Diskurs über die Folgen solcher Anwendungen (Open Letter 2023). Aber wirtschaftliche Interessen sind wichtiger als Technikfolgeabschätzung und Verantwortung für mögliche Folgen.

Der Hauptsponsor von Open AI, Microsoft, hält seit Anfang 2019 (über die gewinnorientierte Tochterfirma OpenAI Global, LLC) 49% Anteile. Investitionen von bislang mehr als 13 Mrd. US $ und Zusagen über weitere, zweistellige Milliardenbeträge in den Folgejahren sind das Argument für dieses «riesige soziale Experiment», wie Judith Simon, Mitglied im Deutschen Ethikrat die Freischaltung von Open AI bei den Munich Economics Debates im Januar 2024 nannte (Brühl 2024). Der Marktlogik folgend, haben Mitbewerber eigene KI-Tools freigeschaltet (und das Problem vervielfacht). Es ist vor allem, nach den Anfängen 1956 und den «Expertensystemen» der 1980er Jahren, bereits der dritte KI-Hype – auf den jeweils ein «KI-Winter» folgte, weil hypothetische Versprechen nicht eingehalten werden konnten. (Zur Geschichte der KI siehe Seising 2021; Manhart 2022)

Nutzersteuerung durch digitale Zwillinge

Dabei ist «Künstliche Intelligenz» allenfalls die «Simulation von Intelligenz» (Hansch 2023). Es sind Datenverarbeitungsmaschinen, die auf der mathematischen Grundlage von Mustererkennung, Wahrscheinlichkeitsrechnung und Statistik arbeiten und bei generativen KI-Systemen auf Basis großer Datenmengen Texte, Grafiken, Videos oder Computercode erzeugen können, die formal so aussehen, als hätten Menschen sie produziert. Formal, weil eine KI gar nicht «weiß», was sie da berechnet. Die Täuschung gelingt, weil alle menschlichen Kommunikations- und Zeichensysteme regelbasiert, d.h. logisch und strukturkonform aufgebaut sind (Linguistik und Semiotik). Regelsysteme kann man mathematisch nachbilden und ebenso regelbasiert ablaufen lassen – wie ein mechanisches Uhrwerk. Nur weiß eine Uhr nicht, wie spät es ist, egal, wie exakt sie läuft. Eine Uhr weiß nicht einmal, was Zeit ist! Daher ist auch die ganze Aufregung von der «Herrschaft und Machtübernahme der Maschinen» Science fiction. Maschinen wollen weder Herrschaft noch Macht. Sie haben weder ein Bewusstsein noch irgendwelche Absichten oder Ziele.

Angst muss man nicht vor (Digital) Systemen haben, sondern vor dem, was Menschen damit anrichten. Wie beim Web und den sozial nur genannten «Social Media»-Diensten diskutieren wir auch bei KI-Systemen bereits jetzt notgedrungen mehr über deren Missbrauch (Cyberbullying, Fake News und Deep Fakes, Mobbing, Stalking, Sexting etc.). Der Missbrauch von Medien ist nicht neu. Ein Konstruktionsfehler des Web ist jedoch, dass sich Firmen wie Alphabet/Google, Meta/Facebook u.a. als Plattformbetreiber definieren konnten, die nicht für die auf ihren Systemen publizierten Servern verantwortlich seien. Mit dem Digital Services Act korrigiert die EU dies zumindest für den europäischen Raum. Denn was diese Systeme kritisch macht, ist, dass mit KI nicht nur technische Systeme gesteuert werden, sondern Menschen, ihr (Konsum-)Verhalten und Einstellungen. Aus Daten lassen sich Persönlichkeitsprofile (digitale Zwillinge) generieren, mit dem man Verhalten prognostizieren und Angebote an digitalen Probanden testen kann, bevor man reale Personen damit traktiert.

«Daten werden in lernfähige Algorithmen gespeist, die ein digitales Double von uns erzeugen, das sich ähnlich verhält wie wir. Damit kann man testen, welche Informationen uns zum Kauf bestimmter Produkte verleiten, zum Download eines Computervirus, oder zum Hass auf Flüchtlinge oder andere Religionen.» (Helbing 2018, S. 2)

Der Einzelne am digitalen Endgerät ist sowohl Datenspender für die Big Data-Sammlung der Datenökonomie wie Adressat für digitale Angebote. Während die Steuerung von Maschinen und Prozessen durch IT und KI die explizite Aufgabe von Ingenieuren und Informatikern ist, verstößt die Steuerung von Menschen gegen deren Persönlichkeits- und Selbstbestimmungsrecht. Die US-amerikanische Wirtschaftswissenschaftlerin Shoshana Zuboff benannte schon 1988 Digital- als Kontrollsysteme: Automatisieren. Digitalisieren. Kontrollieren. (Zuboff 1988). Daraus habe sich mittlerweile ein «Zeitalter des Überwachungskapitalismus» entwickelt (Zuboff 2018). Diese Infrastruktur nannte Frank Schirrmacher bereits 2015 technologischen Totalitarismus. Daher sind Digital- als Kontrollinstrumente für den Einsatz in Sozialsystemen – und insbesondere Bildungseinrichtungen – ungeeignet.

Wirtschaftsinteressen vs. Pädagogik

In der öffentlichen Diskussion werden solche Bedenken selten thematisiert. Fortschrittsglaube und Technikdeterminismus (und die Arbeit zahlreicher Lobbyisten) bestimmen den Diskurs auch in Bildungseinrichtungen. KI-Systeme seien auf dem Markt, würden von Lehrkräften, Schülerinnen und Schülerinnen ohnehin eingesetzt und müssten daher in die Schule integriert werden. So überlässt man die Frage, mit welchen Medien unterrichtet wird, den Anbietern dieser Systeme. Den nachweislich fehlenden Nutzen und Mehrwert der IT-Systeme (Balslev 2020) kompensieren die Digitalanbieter durch die Behauptung, dass bereits die Frage nach dem Mehrwert und Nutzen von IT (heute auch KI) in Schulen falsch gestellt sei.

So argumentiert z.B. das Forum Bildung Digitalisierung e.V., ein Zusammenschluss privater Stiftungen, die sich für eine «systemische digitale Transformation im Bildungsbereich» einsetzen. Die im Forum durch ihre Stiftungen vertretenen Unternehmen kommen aus der IT- und Telekommunikationswirtschaft und/oder sind selbst Akteure der Digitalwirtschaft bzw. Bildungsindustrie. Ihr Credo: «In Projekten, Publikationen und Veranstaltungen identifizieren wir Gelingensbedingungen für den digitalen Wandel an Schulen und navigieren durch die notwendigen Veränderungsprozesse» (FBD 2022). Im Gefolge solcher Stiftungen finden sich digitalaffine Lehrkräfte, Blogger und neuerdings «Bildungsinfluencer», die derartige Setzungen übernehmen und ebenfalls über Bildung nur noch «unter den Bedingungen der Digitalisierung» diskutieren wollen (Krommer 2018).

Der Blick in die Schulpraxis

Die Unterrichtspraxis belegt hingegen die Bedeutung von Präsenzunterricht , nachdrücklich bestätigt durch Studien aus zwei Corona-Jahren mit pandemienbedingt digital gestütztem Fernunterricht: «Die Lehrkraft als den Unterricht strukturierende und leitende Person lässt sich durch kein Medium ersetzen», konstatiert der Heidelberger Pädagogikprofessor Karl-Heinz Dammer in seinem Gutachten (Dammer 2022, S. 5). Die Studie von Engzell et al. (2021) weist nach, dass selbst Schülerinnen und Schüler von technisch sehr gut ausgestatteten niederländischen Schulen, die den Einsatz von Digitaltechnik im Präsenzunterricht gewohnt waren, durch Fernunterricht Lerndefizite entwickeln, die der Zeit der Schulschließung entsprechen. Sind es Kinder aus bildungsfernen Familien mit Migrationshintergrund, sind die Lernrückstände deutlich größer. (Maldonado et al.)

Eine Frankfurter Forschergruppe formuliert: «Distanzunterricht ist so effektiv wie Sommerferien» (Hammerstein et. al. 2021). Für Kita und Grundschule hat Manfred Spitzer Studien zusammengetragen (Spitzer 2022). Klaus Zierer ergänzt Studien zu körperlichen und psychischen Folgen (Zierer 2021, S. 37f). Auch die Studien von Andresen (Jugend und Corona) und Ravens-Sieberer (CoPsy I–III) zeigen neben Lerndefiziten gravierende Folgen für sowohl die körperliche wie psychische Gesundheit durch die erzwungene soziale Isolation. Vergleichbares gilt für Studierende. Hier sind es Ängste, Depressionen, psychische Störungen und Studienabbrüche (DZHW 2021). Dazu kommen bei vielen Kindern und Jugendlichen Gewichtszunahmen durch Kontaktverbote und Bewegungsmangel und, damit verbunden, höhere Bildschirmnutzungszeiten.

Die UNESCO hat den Einsatz von Digitaltechnik in Schulen weltweit untersucht und die Ergebnisse mit dem Bericht 2023 Global Education Monitor vorgelegt (UNESCO 2023). Der Untertitel lautete Technologie in der Bildung: Ein Werkzeug zu wessen Nutzen? Das Ergebnis: Bei den aktuellen IT-Konzepten für Bildungseinrichtungen stehen wirtschaftliche Interessen der IT-Anbieter und Aspekte der Datenökonomie im Mittelpunkt, nicht das Lernen und der pädagogische Nutzen. Erste Länder reagieren. Der dänische Minister für Kinder und Bildung, Mattias Tesfaye, hat sich im Dezember 2023 dafür entschuldigt, dass die dänische Regierung Jugendliche zu «Versuchskaninchen in einem digitalen Experiment» gemacht habe und publizierte im Februar eine Reihe strenger Empfehlungen für den Einsatz digitaler Endgeräte in der Schule und Freizeit (!), u.a. ein generelles Handyverbot an Schulen und das Sperren nicht relevanter Webseiten.

Die schwedische Regierung machte ihre Entscheidung, Vorschulen verpflichtend mit digitalen Geräten auszustatten, nach einem Gutachten des Karolinska-Instituts rückgängig (Karolinska-Institut (2023). Schwedens Bildungsministerin Lotta Edholm verbannte Tablets aus der Vor- und Grundschule, lässt wieder Schulbücher drucken und verpflichtet die Lehrkräfte zu täglichen Lesezeiten mit ihren Klassen.

Die französische Regierung gab im Januar 2024 die Studie Enfants et écrans (Kinder und Bildschirme) in Auftrag. Am 30. April 2024 wurden die Empfehlungen der Expertinnen und Experten publiziert, u.a. ein generelles Verbot digitaler Medien für Kindergärten. Kinder bis zum Alter von 13 Jahren sollten kein Smartphone bekommen (allenfalls ein Handy ohne Internet ab 11 Jahren).Heranwachsende ab 15 Jahren sollten nur «ethische» (nichtkommerzielle) soziale Netzwerke wie Mastodon nutzen, die sich als gemeinnützige Unternehmen definieren. Der Zugang zu profitorientierten Netzwerken wie Instagram, Facebook, Snapchat oder TikTok sollte erst ab einem Alter von 18 Jahren erlaubt werden. Begründet werden Empfehlungen und Verbote mit psychosomatischen Auswirkungen wie Depressionen, Angstzuständen, Bildschirmsucht, Bindungsstörungen (Technoference), Auswirkungen auf den Schlaf, Bewegungsmangel und Fettleibigkeit.

Immer mehr Länder (laut UNESCO-Bericht derzeit jedes sechste Land, Tendenz steigend) verbieten private (!) Endgeräte in der Schule, um überhaupt wieder regulär und von Angesicht zu Angesicht unterrichten und miteinander kommunizieren zu können. Anders kommen sie gegen die Smartphones der Social Media und Messenger-süchtigen Schülerinnen und Schüler nicht an, selbst wenn diese ausgeschaltet in der Schultasche verstaut sind (Haidt 2023a; 2023b; Böttger et.al. 2023). Die Konsequenz: Smartphone-Verbot in der gesamten Schule, auch in den Pausen, damit wieder «normal» agiert, gespielt, kommuniziert wird. Mitgebrachte Geräte werden zu Beginn der Unterrichtszeit ausgeschaltet, in Schließfächern versorgt und erst nach Schulende wieder ausgehändigt. Dazu gehört im Gegenzug, dass die Schulen die für den Unterricht benötigten digitalen Endgeräte zur Verfügung stellen.

Unterrichten als dialogischer Prozess

Unterrichten als interpersonaler Prozess ist immer an Menschen und den direkten Dialog gebunden. Das pädagogische Dreieck beschreibt die beteiligten Partner, die notwendig präsent und einander zugewandt sein müssen, um von pädagogischer Arbeit und Unterricht zu sprechen: Lehrende und Lernende. Dazu kommt als Drittes die Sache als Unterrichtsgegenstand der Vermittlung, das Thema oder Fach des Unterrichts. Bei Bedarf und je nach Altersgruppe, Thema und Möglichkeit ergänzen (analoge wie digitale) Medien das Lehren und Lernen. Denn selbstredend gehören Medien in den Unterricht, nur muss die Lehrkraft über deren Wahl und Einsatz entscheiden können.

Abb. 1: Das pädagogische Dreieck

Das gemeinsame Lehren und Lernen findet in einem sozialen Raum statt und ist ein dialogischer, diskursiver Prozess. Der klassische Begriff dafür lautet «Unterrichtsgespräch» und geht auf die Academia des Sokrates zurück. Die «sokratische Hebammenkunst» ist die Kunst des Fragens der Lehrenden und der Erkenntnisgewinn der Schülerinnen und Schüler durch eigenes Nachdenken und Formulieren möglicher Antworten. Es ist ein wechselseitiger Dialog, bei der die Lehrperson den Schülerinnen und Schülern überantwortet, mit eigenen Worten formulieren und argumentieren zu lernen. Entfernt man aus diesem Dreieck die Lehrperson, wie es bei IT- und KI-Systemen der Fall ist, wird aus Unterricht und Lehre medienbasierte Instruktion.

Das ist eine mögliche Form des Lernens, vor allem für fortgeschrittene, intrinsisch motivierte und vor allem disziplinierte Lerner, aber kein Unterricht. Das selbstständige Lernen mit Medien setzt zudem Vorwissen, Reflexionsvermögen und Urteilskraft voraus. Mediengestützte Selbstlernphasen sind ein Ziel von Erziehung und Unterricht, um Jugendliche und vor allem Erwachsene (im Studium) an das eigenständige, auch inhaltlich selbstbestimmte Lesen, Lernen und Forschen heranzuführen. Es ist keine Fertigkeit, die man bei Kindern und Jugendlichen erwarten oder voraussetzen kann. Selbst bei Erwachsene findet sich diese Neugier und Bereitschaft zur Anstrengung selten.

Lernen an Lernstationen und IT-Systemen ist weder selbstbestimmt noch individualisiert. Das Lernziel ist ebenso vordefiniert wie die Lernpfade. Individualisierung bedeutet nur Varianz und Anzahl der möglichen Zwischenschritte. Es ist algorithmisch gesteuertes «Teaching to the Test», mit kleinteilig integrierten Prüfschleifen und Berechnung der nächsten Aufgaben durch Lernkontrollsoftware. Das Ziel ist vorgegeben und soll möglichst effizient erreicht werden. Technische Systeme arbeiten heute zwar, anders als bei Asimov, mit digital generierten Figuren (Avatare als Pseudo-Charaktere) und ebenso computergenerierter Stimmen. Aber das Prinzip sozialer Isolation am Display oder Touchscreen, die Reduktion von Lernprozessen auf das Abarbeiten vorgegebener Aufgaben mit dem Ziel der sofortigen Abprüfbarkeit und technisch generierter statt zwischenmenschlicher Interaktion hat Asimov vorweggenommen. Der Sozialraum Schule mit Klassenzimmern und Pausenhof wird durch die Beschulung per Apparat ebenso eliminiert wie das gemeinsame Lernen und gegenseitige Helfen. Menschen am Display werden letztlich entmündigt. Mit einer Maschine kann man nicht diskutieren. Die Instruktion durch mechanische Lehrer (heute digitale Systeme) reduziert Lernen auf abfragbares Repetitionswissen und Lernstandskontrollen, Alters- und Leistungsstufen (heute: Kompetenzraster und -stufen). Aus Pädagogik wird Metrik und Prognostik.

KI und ChatBots in Schulen

Die noch wichtigere Frage für Bildungseinrichtungen ist: Was machen solche Systeme mit Schülerinnen und Schülern? Die Antwort: Man gewöhnt junge Menschen an das Arbeiten am Bildschirm und an vermeintlich allmächtige Systeme, die sie weder durchschauen noch hinterfragen können. KI-Systeme sind Black Boxes, was die Funktionsweise (Algorithmen), die zugrunde liegenden Parameter (Attribute, Werte) und die Daten selbst betrifft. Die Datenbasis ändert sich mit jeder Eingabe. Jede Nutzereingabe (Prompt) wird zusammen mit der automatisch generierten Antwort wieder Teil der Datenbasis für folgende Anfragen und vergrößert den Datenbestand– ohne auf Gültigkeit oder Relevanz geprüft zu werden. Diese Bots arbeiten mit riesigen Datenmengen. Dafür scannen sie das gesamte Netz, es sind regelrechte «Datenstaubsauger», ohne Rücksicht auf Urheber- oder Nutzungsrechte. Daher sind immer mehr Rechtsverfahren anhängig.

Da sich diese Systeme durch «maschinelles Lernen» (ein Euphemismus für das automatisierte Generieren weiterer Algorithmen auf der Basis von Mustererkennung und Statistik) selbst modifizieren, ohne dass Menschen diese Ergänzungen und/oder Modifikationen kontrollieren (können), wissen mittlerweile nicht einmal die Experten, was diese Systeme tun – und warum. Das Konzept der Datenmaximierung ohne Qualitätskontrolle führt schon jetzt dazu, dass diese Systeme mit zunehmender Nutzungsdauer immer mehr fehlerhafte Ergebnisse liefern.

Dazu kommt die Irrelevanz der Ergebnisse. Mit KIs kann man zwar zeigen, dass Bots aufgrund eines Prompts in Sekundenschnelle Texte oder Bilder generieren. Aber es ist wie bei einem Kaleidoskop: Mit jedem Dreh entsteht etwas anderes, aber es bleibt beliebig und zufällig. Gleiches gilt für Texte. Formal sind es Textformen wie Bericht oder Gedicht, aber es bleiben generische Texte. Bei den Nutzern finden weder Lern- noch Verstehensprozess statt, weil die Resultate des Promptens beliebig sind. So trainiert man Schülerinnen und Schüler darauf, selbst zu funktionieren wie ein Apparat (generiere einen Prompt für einen Text X für das Fach Y), anstatt Lern- und Verstehensprozesse zu initiieren, die junge Menschen zu verständigen Personen werden lassen. Dazu müssten sie Neugier und Freude durch eigenes, aktives Tun erleben und zu Erkenntnissen im eigenen Arbeitsprozess kommen. Die noch tiefergreifende Gefahr durch den Einsatz von KI-Systemen in Schulen benennt der Pädagoge Gottfried Böhme: «KI ruiniert das Motivationsgefüge des herkömmlichen Unterrichts» und führt aus:

«Künstliche Intelligenz bricht der Schule, wie sie heute existiert, das Rückgrat. Es hat in der Geschichte der Bildungseinrichtungen noch nie eine Erfindung gegeben, die so infam die gesamte Motivationsstruktur des Lernsystems infrage gestellt hat wie diese Atombomben-KI – um mich hier deutlich zu outen. Wir ziehen gerade eine Generation von Jugendlichen heran, die eine Zeitlang ihren Lehrern noch vorgaukeln kann, dass das, was ihnen ChatGPT oder ein anderes Programm geschenkt hat, ihre Leistung sei, und bald nicht mehr wissen, warum sich Lernen überhaupt noch lohnen soll.» (Böhme 2023, S. 9)

ChatBots gewöhnt junge Menschen daran, sich technischen Systemen und deren Berechnungen als vermeintlich gültige Hilfsmittel anzuvertrauen. Bequemlichkeit und Faulheit sind bekannte menschliche Eigenschaften, beim Lernen aber leider eher nicht hilfreich. Das vermeintlich einfache Erzeugen von Texten, Bildern oder Präsentationen verhindert die eigene Auseinandersetzung mit Sprache und anderen Zeichensysteme und untergräbt den schöpferischen, kreativen Akt der Ideenfindung und Konzeption. Die Erziehung (Verführung) zur Bequemlichkeit durch den Einsatz von Bots verdrängt das Spiel der Phantasie und Vorstellungskraft, die am Anfang jeder Arbeit, ob Aufsatz, Komposition oder Zeichnung stehen sollte.

Was tun?

«Probleme kann man niemals mit derselben Denkweise lösen, mit der sie entstanden sind», soll Albert Einstein formuliert haben. Wer die ernüchternden Ergebnisse des letzten PISA-Tests von 2022 oder des IQB-Bildungstrends 2021 (Stanat et.al. 2022) zu schulischen Leistungen der bundesdeutschen Primarschülerinnen und -schüler verfolgt hat, wird weder in dem seit mehr als 40 Jahren forcierten Einsatz digitaler Technik in Schulen noch in der mit dem ersten PISA-Test exekutierten empirischen Wende der Erziehungswissenschaften Lösungsansätze sehen. Durch Wiegen wird die Sau nicht fett. Intelligent wäre, die Ausrichtung der Schulen nach neoliberalen Vorgaben (Stichwort Humankapitaltheorie, Unternehmen Schule) ebenso zu beenden wie die kybernetischen und Steuerungsversuche durch Psychotechniken (Stern et al. 1903).

Wir brauchen eine pädagogische Wende. Statt Schule und Unterricht von Medien- und Digitaltechnik und messbaren Lernleistungen her zu definieren, muss wieder das Erziehen und Bilden von Menschen und das «Verstehen lehren» (Andreas Gruschka) im Zentrum pädagogischer Arbeit stehen. Statt sozialer Isolation am Display (samt daraus entstehender sozialer und psychischer Probleme) müssen der Dialog in und mit der Klassen- und der Lerngemeinschaft in Präsenz wieder der Wesenskern pädagogischer Praxis werden.

Bildungseinrichtungen sind keine Zurichte-Anstalten für die Kompetenzvermessung. Sie müssen sich auf ihren Ursprung und ihr Ziel besinnen: Ein Ort der Muße, der Wertevermittlung und Bildung zu sein, an dem Menschen zu mündigen, selbstverantwortlichen Persönlichkeiten werden, die sich aus intrinsischer Motivation und Überzeugung in die Gesellschaft einbringen. Auf einem Schulleitungssymposium wurden bereits 2017 als bildungspolitische Ziele Kriterien einer adäquaten Bildung für eine offene Zukunft formuliert: «eine stärkere Perspektivenorientierung auf Persönlichkeitsentwicklung, Mündigkeit, Förderung von Gemeinschaftssinn, Selbstverantwortung, verantwortungsvolle Partizipation an der Demokratie und achtungsvoller Umgang mit der fragilen Umwelt» (Simanowski 2021). Keines dieser Lernziele lässt sich per IT und KI vermitteln. Werte als Grundlage für eigenes Handeln entstehen nur durch Bindung und Vertrauen, im Dialog und Diskurs.

Ein Albert Einstein zugeschriebenes Zitat lautet: «Wenn Sie wollen, dass Ihre Kinder intelligent sind, lesen Sie ihnen Märchen vor. Wenn Sie wollen, dass sie intelligenter werden, lesen Sie ihnen mehr Märchen vor.» Bilder, Figuren und Geschichten entstehen im Kopf. Man nennt es Phantasie und Vorstellungskraft. Daraus können neue Welten in der Wissenschaft, der Kunst, der Kultur entstehen. Das ist eines der wichtigsten Ziele von Bildung: Ideen und Vorstellungskraft entwickeln zu können. Wir müssen – als Eltern- und Schülervertreter, Lehrkräfte, Schulträger – die Logik der Datenökonomie und Bildungsindustrie durchbrechen und die Autonomie über Bildungseinrichtungen samt technischer Systeme (Stichwort digitale Souveränität) zurückgewinnen. Für den politischen Raum hat Bundespräsident Frank-Walter Steinmeier 2019 formuliert:

«Nicht um die Digitalisierung der Demokratie müssen wir uns zuallererst kümmern, sondern um die Demokratisierung des Digitalen! […] Die Rückgewinnung des politischen Raumes – gegen die Verrohung und Verkürzung der Sprache und der Debatten, aber auch gegen die ungeheure Machtkonzentration bei einer Handvoll von Datenriesen aus dem Silicon Valley –, das ist die drängendste Aufgabe!» (Steinmeier 2019.)

Nicht die digitale Transformation der Bildungseinrichtungen sollte das Ziel sein, sondern die Rückgewinnung des pädagogischen Raumes – und die Hoheit über das eigene Denken, Fühlen und Handeln. Der israelische Historiker Yuval Noah Harari wurde gefragt, warum er kein Smartphone besitze. Die Antwort des Wissenschaftlers, der sich dezidiert mit den Auswirkungen der Digitalisierung auf menschliches Verhalten befasst, sollte nachdenklich machen. Er sei nicht naiv und wisse, dass er in einer zunehmend smarten Umwelt auch ohne Smartphone verfolgt werden könne. Es gehe um mehr:

«Der Hauptpunkt ist, Ablenkungen fernzuhalten. Ich weiß, wie schwierig es ist, den Geist zu kontrollieren, konzentriert zu bleiben. Und außerdem: Die Menschen auf der anderen Seite des Smartphones – die klügsten Menschen der Welt – haben in den vergangenen 20 Jahren gelernt, wie man das menschliche Gehirn durch das Smartphone hacken kann. Denen bin ich nicht gewachsen. Wenn ich gegen die antreten muss, werden sie gewinnen. Also gebe ich ihnen nicht meinen Bildschirm, gewähre ihnen keinen direkten Zugang zu meinem Gehirn.» (Matthes 2021.)

Margies Lehrmaschine kann heute Gehirne hacken. Wir müssen umdenken und uns von der Fixierung auf Digitaltechnik lösen. Wenn Erwachsene sich mit ihren Daten im Netz prostituieren, ist das ihre Sache. Für Kinder und Minderjährige haben Eltern und Schulträger die Verantwortung und müssen sie vor den Datensammlern schützen. In den USA gilt seit 1998 der Children‘s Online Privacy Protection Act (COPPA), der das Speichern und Auswerten von Daten Minderjähriger unter 13 Jahren unter Strafe stellt. Eine entsprechende Regelung für das konsequente Kappen des Rückkanals für Daten Minderjähriger fehlt in der EU. Die weiterführende Frage lautet: Gelingt es, Digital- und Netzwerktechnologien in Bildungseinrichtungen zur Emanzipation und Förderung der Autonomie der Menschen und deren Handlungsfreiheit einzusetzen (Lankau 2020) oder dienen IT-Systeme weiter den Geschäftsinteressen der Vertreter der Datenökonomie und bleiben Instrumente zur (Verhaltens)Steuerung von Menschen?

Epilog: She was thinking about the fun they had

Im zweiten Teil der Geschichte von Asimov findet der 13-jährige Tommy auf dem Speicher ein altes Buch. Dort stand geschrieben, wie Schule früher organisiert war: Kinder wurden nicht von Maschinen unterrichtet, sondern von Männern. Margie protestiert: Kein Mann sei dafür klug genug, kein Mensch könne so viel wissen wie ein mechanischer Lehrer. Ihr würde auch nicht gefallen, wenn

«ein fremder Mann ins Haus käme, um Schule zu halten.» Tommy kreischte vor Lachen. «Du weißt nichts, Margie. Die Lehrer haben nicht bei den Kindern im Haus gelebt. Sie hatten ein besonderes Haus, und alle Kinder gingen dorthin.» – «Und alle Kinder lernten dasselbe?» – «Klar, wenn sie im gleichen Alter waren.» – «Aber meine Mutter sagt, ein Lehrer muss genau für den Jungen oder das Mädchen eingestellt werden, die er lehrt, und dass jedes Kind andere Lektionen bekommen muss, weil die Kinder im Lernen ganz verschieden sind.» – «Trotzdem haben sie es damals nicht so gemacht. Wenn es dir nicht gefällt, brauchst du das Buch ja nicht zu lesen.» (Asimov 2016, S. 157.)

Margie bettelt darum, das Buch lesen zu dürfen. Doch die Mutter ruft sie zur Ordnung, sie müsse zurück an ihre Schulmaschine. Während sie wieder alleine vor ihrer, nun reparierten mechanischen Lernmaschine sitzt, stellt sie sich vor, wie es wohl wäre, mit anderen Kindern zusammen in einem Klassenraum zu lernen, gemeinsam zu spielen und sich gegenseitig zu helfen. Der letzte Satz der Kurzgeschichte gibt der Geschichte im Englischen ihren Titel. «Margie musste daran denken, wie glücklich die Kinder in den alten Tagen gewesen sein mussten. Wie schön sie es gehabt hatten.» «She was thinking about the fun they had».

Begriffsdefinition

  • Algorithmus: Anweisung/Handlungsvorschrift zur Lösung von Aufgaben, bei Computern: Regeln zur Verarbeitung von Daten.
  • Artificial Intelligence (dt. Künstliche Intelligenz, vormals Kybernetik): mathematische Methoden (Mustererkennung, Statistik, Wahrscheinlichkeitsrechnung) zur automatisierten Datenverarbeitung.
  • ChatGPT (von engl. «to chat» –plaudern, sich unterhalten) ist ein Programm, um Texte nach statistischen Methoden und auf Basis einer Datenbank zu vervollständigen. GPT steht für «Generative Pre-trained Transformer»
  • Digitalisierung: Technische Transformation beliebiger Signale in ein maschinenlesbares Format (Digitalisate).
  • Digitale Transformation. Reorganisation beliebiger Prozesse (Kommunikation, Lehren, Lernen, Produktion […]), um digital aufgezeichnet und ausgewertet/gesteuert werden zu können. In Folge zählt nur noch digital Abbildbares.
  • Generative KI. Automatisierte Datenverarbeitungssysteme, mit denen originär menschliche Fertigkeiten wie das Schreiben von Texten, das Gestalten von Grafiken, Präsentationen, Videos u.v.m. simuliert werden.
  • GPT steht für «Generative Pre-trained Transformer» und ist ein großes Sprachmodell (engl. Large Language Model, LLM), dass mit großen Mengen an Texten trainiert wird und selbst generieren kann, ohne allerdings zu wissen, was da berechnet (generiert) wird.
  • Kybernetik. Steuerung. Der Kybernetiker ist der Steuermann. Kybernetische Systeme dienen der Prozessteuerung und -optimierung (Regeln. Messen. Steuern.).
  • Postdigitalität. Die vollständige Datafizierung menschlichen Verhaltens und Lebensräume werden, da allgegenwärtig, nicht mehr hinterfragt

Literatur

Andreessen, Marc (2023): Why AI Will Save the World; (19.6.2023).

Armbruster, Alexander (2019): Nicht jeder muss ein Informatiker sein, Interview mit Microsoft-Deutschland-Chefin

Sabine Bendiek, Frankfurter Allgemeine Zeitung (FAZ) vom 1. April 2019.

Asimov, Isaac (2016): Die Schule [1954], in: Geliebter Roboter, 3. Aufl., München (Heyne), S. 154-158.

Balslev, Jesper (2020): Evidence of a potential. The political arguments for digitizing education 1983 – 2015. Ph.D. Dissertation of Jesper Balslev, Department of Communication and Arts, Roskilde University, January 2020.

Barlow, John Perry (1996): A Declaration of the Independence of Cyberspace; (12.05.2024)

Böhme, Gottfried (2023): ChatGPT bricht der Schule das Rückgrat, in: FAZ vom 14. September 2023.

Böttger, Tobias; Poschik, Michael; Zierer, Klaus (2023): Does the Brain Drain Effect Really Exist? A Meta-Analysis, in: Behavioral Sciences, Band. 13, S. 751. https://doi.org/10.3390/bs13090751.

Brühl, Jannis (2023): Ein Jahr Chat-GPT: Keine Hoffnung auf Luxuskommunismus, in: SZ vom 30. November 2023, S. 18.

Brühl, Jannis (2024): KI ist bald überall, in: Süddeutsche Zeitung (SZ) vom7. Februar 2024, S. 15.

Center for AI Safety (2023): Statement on AI Risk: AI experts and public figures express their concern about AI risk. https://www.safe.ai/work/statement-on-ai-risk (26.5.2024).

Dammer, Karl-Heinz (2022): Gutachten zur Digitalstrategie der KMK des Landes NRW (2022) PDF: https://phv­nrw.de/wp­content/uploads/2022/09/PhV­NRW­Gutachten­Digitale­Welt­im­Diskurs­1 50dpi.pdf.

Delgado, Pablo; Vargas, Cristina; Ackerman, Rakefet; Salmerón, Ladislao (2018): Don’t throw away your printed books: A meta-analysis on the effects of reading media on reading comprehension, in: Educational Research Review, Band 25, S. 23–38. https://doi.org/10.1016/j.edurev.2018.09.003.

Deutscher Ethikrat (2023): Stellungnahme «Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz» des Deutschen Ethikrats vom 20. März 2023, hier Kap. 3.4.2 Der Mensch als Maschine – die Maschine als Mensch?, S. 107 f.

DZHW (2021): Deutsches Zentrum für Hochschul- und Wissenschaftsforschung: Studieren in Deutschland zu Zeiten der Corona-Pandemie, Rubrik: Publikationen; https://www.dzhw.eu/forschung/projekt?pr_id=665 (30.8.2022).

Engzell, Per; Frey, Arun; Verhagen, Mark (2020, October 29): Learning Inequality During the Covid-19 Pandemic. https://doi.org/10.31235/osf.io/ve4z7 (5. Mai 2024).

FBD (2022): Forum Bildung Digitalisierung: https://www.forumbd.de/verein/; 20.11.2023 (3.6.2024).

Gelhard, Andreas (2011): Kritik der Kompetenz, Zürich (Diaphanes).

Gruschka, Andreas (2011): Verstehen lehren. Ein Plädoyer für guten Unterricht, Ditzingen (Reclam).

Haidt, Jonathan (2023a): The Case for Phone-Free Schools. The research is clear: Smartphones undermine attention, learning, relationships, and belonging, https://jonathanhaidt.substack.com/p/phone-free-schools (6.6.2023 / 29.8.2023).

Haidt, Jonathan (2023b): Get Phones Out of Schools Now. They impede learning, stunt relationships, and lessen belonging, https://www.theatlantic.com/ideas/archive/2023/06/ban-smartphones-phone-free-schools-social-media/674304/ (June 6 2023).

Haidt, Jonathan (2024): Generation Angst, Hamburg (Rowohlt).

Hammerstein, Svenja; König, Christoph; Dreisörner, Thomas; Frey, Andreas (2021): Effects of COVID-19-Related School Closures on Student Achievement — A Systematic Review. 2021 https://psyarxiv.com/mcnvk/; https://doi.org/10.3389/fpsyg.2021.746289 (3.6.2024)

Hansch, Dieter (2023): Der ehrlichere Name wäre «Simulierte Intelligenz», in: FAZ vom 1. März 2023, S. N2.

Helbing, Dirk (2018): Untertanen des Digitalen, in: SZ vom 25. März 2018, S. 2.

IQB-Bildungsbericht (2022): https://www.iqb.hu-berlin.de/bt/BT2021/Bericht/.

Karolinska-Institut (2023): Stellungnahme des Karolinska-Institutes zur nationalen Digitalisierungsstrategie in der Bildung (2023). – https://die-pädagogische-wende.de/wp-content/uploads/2023/07/Karolinska-Stellungnahme_2023_dt.pdf.

Krommer, Axel (2018): Wider den Mehrwert! Oder: Argumente gegen einen überflüssigen Begriff, https://axelkrommer.com/2018/09/05/wider-den-mehrwert-oder-argumente-gegen-einen-ueberfluessigen-begriff/ (12.6.2023).

Lankau, Ralf (2020): Alternative IT-Infrastruktur für Schule und Unterricht. Wie man digitale Medientechnik zur Emanzipation und Förderung der Autonomie des Menschen einsetzt, statt sich von IT-Systemen und Algorithmen steuern zu lassen, Köln (Gesellschaft für Bildung und Wissen).

Lankau, Ralf (Hg.) (2024): Die pädagogische Wende. Über die notwendige (Rück-)Besinnung auf das Unterrichten, Heidelberg (Beltz).

Maldonado, Joana; De Witte, Kristof (2020): The effect of school closures on standardised student test outcomes. https://www.researchgate.net/publication/344367883_The_effect_of_school_
closures_on_standardised_student_test_outcomes (5. Juli 2021).

Manhart, Klaus (2022): Eine kleine Geschichte der Künstlichen Intelligenz (7 Folgen); https://www.computerwoche.de/a/eine-kleine-geschichte-der-kuenstlichen-intelligenz,3330537 (20.8.2023).

Matthes, Sebastian (2021): Sie haben gelernt, unser Gehirn zu hacken, Interview mit dem Historiker Yuval Noah Harari, in: Handelsblatt vom 30. Dezember 2021 bis 2. Januar 2022, Nr. 253, S. 16-18, https://futur-iii.de/2022/01/sie-haben-gelernt-unser-gehirn-zu-hacken/ (12.6.2023).

Open Letter (2023): Pause Giant AI Experiments: An Open Letter; https://futureoflife.org/open-letter/pause-giant-ai-experiments/, publiziert am 22. März 2023 (26.5.2024).

Pias, Claus (2013): Eine kurze Geschichte der Unterrichtsmaschinen, in: FAZ vom 10. Dezember 2013; www.faz.net/aktuell/feuilleton/forschung-und-lehre/automatisierung-der-lehre-eine-kurze-geschichte-der-unterrichtsmaschinen-12692010.html (30.6.2022).

Pias, Claus (Hg.) (2016): Cybernetics | Kybernetik 2. The Macy-Conferences 1946–1953. Band 2. Documents/Dokumente.

Ravens-Sieberer, Ulrike, et al. (2021): Seelische Gesundheit und psychische Belastungen von Kindern und Jugendlichen in der ersten Welle der COVID-19-Pandemie – Ergebnisse der COPSY-Studie, 01. März 2021; PDF: https://link.springer.com/content/pdf/10.1007/s00103-021-03291-3.pdf (5.7.2021).

Schirrmacher, Frank (Hg) (2015): Technologischer Totalitarismus, Berlin (Suhrkamp).

Seising, Rudolf (2021): Es denkt nicht. Die vergessenen Geschichten der KI, Frankfurt (Büchergilde Gutenberg).

Simanowski, Roberto (2021): Digitale Revolution und Bildung, Weinheim (Beltz).

Spitzer, Manfred (2022): Digitalisierung in Kindergarten und Grundschule schadet der Entwicklung, Gesundheit und Bildung von Kindern. Kommentar. Zum Gutachten der Ständigen Wissenschaftlichen Kommission der KMK vom 19.9.2022, in: Geist und Gehirn. Nervenheilkunde 2022, Heft 41, S. 797–808; https://www.thieme-connect.com/products/ejournals/pdf/10.1055/a-1826-8225.pdf (18.11.2022).

Stanat, Petra; Schipolowski, Stefan; Schneider, Rebecca; Sachse, Karoline A.; Weirich, Sebastian; Henschel, Sofie (2022): (Hg.) IQB-Bildungstrend 2021. Kompetenzen in den Fächern Deutsch und Mathematik am Ende der 4. Jahrgangsstufe im dritten Ländervergleich, https://box.hu-berlin.de/f/e907cc6bb64440de8408/?dl=1 (29.11.2022),

Steinmeier, Frank (2019): Rede zur Eröffnung der Podiumsdiskussion «Zukunftsvertrauen in der digitalen Moderne» beim 37. Deutschen Evangelischen Kirchentag am 20. Juni 2019 in Dortmund, https://www.bundesregierung.de/breg-de/service/bulletin/rede-von-bundespraesident-dr-frank-walter-steinmeier-1640914 (27.2.2020).

Stern, William (1903): Angewandte Psychologie, in: L. W. Stern, E. Bernheim (Hg.): Beiträge zur Psychologie der Aussage : mit besonderer Berücksichtigung von Problemen der Rechtspflege, Pädagogik, Psychiatrie und Geschichtsforschung, Band 1: Beiträge zur Psychologie der Aussage. Leipzig (Barth), 1903–1904, S. 4–45.

UNESCO (2023): Technology in Education – A tool on whose terms? https://www.unesco.org/gem-report/en/technology, dt. Überstezung und Auszüge: https://die-pädagogische-wende.de/unesco-bericht-zu-it-in-schulen-fordert-mehr-bildungsgerechtigkeit/ (24. Mai 2024).

Weizenbaum, Joseph (1976): Die Macht der Computer und die Ohnmacht der Vernunft, Frankfurt (Suhrkamp).

Wiener, Norbert (1948): Cybernetics or Control and Communication in the Animal and the Machine, Cambridge (MIT Press); dt.: Kybernetik: Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine, Düsseldorf (Econ), 1963.

Wiener, Norbert (1950): The Human Use of Human Beings. Cybernetics and Socierty, New York (Doubleday Anchor); dt.: Mensch und Menschmaschine. Kybernetik und Gesellschaft, Frankfurt (Vittorio Klostermann), 2022.

Zierer, Klaus (2021): Ein Jahr zum Vergessen. Wie wir die Bildungskatastrophe nach Corona verhindern, Freiburg, Basel, Wien (Herder).

Zuboff, Shosana (1988): In the Age of the Smart Machine. The Future of Work and Power, New York (Basics Book).

Zuboff, Shosana (2018): Zeitalter des Überwachungskapitalismus, Frankfurt (Campus).

Zuboff, Shosana (2018b): Shoshana Zuboff über Überwachungskapitalismus: «Pokémon Go – ein wahres Menschenexperiment», Spiegel-Interview 40/2018.