Wie die Interaktion mit Künstlicher Intelligenz den Bildungsbegriff weiter verändert
von Markus Reinisch · Veröffentlicht 11/02/2026 ·(https://bildung.hypotheses.org/8670) Aktualisiert 07/02/2026
Download als PDF: Beziehungslose Akteure – Wie die Interaktion mit Künstlicher Intelligenz den Bildungsbegriff weiter verändert
Abstract
Der Aufsatz legt dar, dass der schulische Einsatz von KI, insbesondere von ChatGPT mit einem Aufweichen des Bildungsbegriffs einhergeht. Es wird die These entfaltet, dass die Nutzer-Sprachmaschine-Interaktion von einer Beziehungslosigkeit geprägt ist. Ausgehend vom Hype um „Big Data“ und die „4.0“-Metaphern wird diese Interaktion mit Blick auf genuin menschliche Eigenschaften beim Kommunizieren (Dialogizität, Denken, Sprache, Erfahrungen, Wissen, Autorschaft und Kreativität) kritisch betrachtet. Bildsame Lernprozesse mit der KI, so wird abschließend ausgeführt, bestehen in sozialer Beziehungsarbeit, in einem Lernen über die Sprachmaschine auf einer Metaebene sowie in einem Vertrauen in die Pädagogen.
Anmerkung: Aus Gründen der Lesbarkeit wird im Folgenden bei personenbezogenen Bezeichnungen das generische Maskulinum verwendet. Diese sprachliche Vereinfachung erfolgt unter ausdrücklichem Hinweis, dass stets alle Geschlechteridentitäten gleichermaßen gemeint sind.
1. Schule unter der digitalen „Disruption“
Bereits mit dem Aufkommen von „Big Data“, „Learning Analytics“ und den entsprechenden steuernden Algorithmen vor etwa zehn Jahren ergaben sich eine Reihe neuer Herausforderungen für den Bildungsbereich, insbesondere für die Schulen. Unter den Schlagwörtern „Disruption“, „Schule 4.0“ oder „smarter Unterricht“ wurden in der Folge vermeintliche Umwälzungen, ja sogar eine „digitale Bildungsrevolution“ (Dräger & Müller-Eiselt, 2015) ausgerufen, die bislang jedoch ausblieben. Softwareunternehmen nutzten den Hype und gelangten in den Bildungsbereich, um die „Verdatung“ von Unterricht sowie eine digitale Vermessung der Lernenden zu gewährleisten.
Aus pädagogischer Sicht hingegen stellten Forscher heraus: algorithmische Prozesse der Automatisierung und Steuerung, die zumeist aus der Industrie kommen, passen nicht in den Bildungsbereich und datengetriebene („data driven“) Lernprozesse vermögen erprobte didaktische und pädagogische Konzepte nicht zu ersetzen. Mustererkennung, Datafizierungen von Bildungsbiografien und eine angestrebte digitale Bildung im Sinne einer Output-Orientierung wurden etwa als „De-Humanisierung“ (z.B. Lankau, 2019) von Lern- und Bildungsprozessen kritisiert.
Dennoch hält der KI-Hype, zuletzt die Welle um ChatGPT, – flankiert von der Bildungspolitik – Einzug in den Bildungsbereich und wird kontrovers diskutiert. Befürworter agieren einmal mehr mit dem Schlagwort „disruptiv“ und argumentieren, man dürfe gerade Heranwachsenden in der Schule den Umgang mit einer derartigen Fortschrittstechnologie nicht verwehren. Skeptische Stimmen sehen einen unreflektierten Einsatz mit gravierenden Folgen, zum Beispiel für den in der Bildung wichtigen Prozess der Wissensgenerierung (vgl. Oswald-Rinner, 2025).
Die Implementierung von KI-Anwendungen in Lern-, Wissens- und Bildungsprozessen, so die These im folgenden Beitrag, ist von einer Beziehungslosigkeit mit den Lernenden geprägt, die den Bildungsbegriff noch weiter von pädagogischen Kategorien entfernt, als dies unter dem „Big-Data“-Hype bereits der Fall gewesen war. „Beziehungslosigkeit“ meint hier, dass im Agieren mit der KI eine lediglich technische Relation und keine genuin soziale, also intersubjektive Beziehung vorhanden ist.
2. Von Big Data zu ChatGPT
„Echtzeit“ und „Feedback“ waren zwei Ausdrücke, die infolge von Big-Data vieles versprachen, auch für den schulischen Kontext: „Feedback“ verwies auf die kybernetischen Anleihen der 60er-Jahre mit den Regelkreis-Modellen, während „Echtzeit“ auf den technologischen Fortschritt abstellte. Big Data bedeutete, Korrelationen aus einem großen Datenhaufen finden zu lassen, Wahrscheinlichkeiten zu berechnen, Vorhersagen möglich zu machen und „in Echtzeit“ für die Suchanfragen entsprechend bereitzustellen.
Für die Schule hörte sich das in etwa so an: hatte man genügend digitale Schülerdaten hinsichtlich des Lern- und Leistungsverhaltens sowie der Biografie gesammelt („learning analytics“), so „werden individuelle, dynamische Curricula und Echtzeit-Feedback möglich“ (Ifenthaler & Schumacher, 2026, S. 179). Konkret hieß das für den Unterricht: unter dem didaktischen Schlagwort der Individualisierung und oft unter Vernachlässigung des Datenschutzes lässt man die Algorithmen walten, denn die „Software beobachtet und speichert minutiös, was, wie und in welchem Tempo ein Schüler lernt. Jede Reaktion des Nutzers, jeder Mausklick und jeder Tastenschlag, jede richtige und jede falsche Antwort wird erfasst. […] Komplexe Algorithmen schnüren individuelle Lernpakete für jeden einzelnen Schüler, deren Inhalt und Tempo sich fortlaufend anpassen, bei Bedarf im Minutentakt.“ (Dräger & Müller-Eiselt, 2025, S. 24)
Die digitale Erfassung und Quantifizierung von Schülerreaktionen vor dem PC oder Tablet ist aus pädagogischer Sicht mit Blick auf die Folgen strittig. Bezieht man die oben skizzierten Szenarien nämlich weiter auf den gesamten Fächerkanon, so käme es in der Schule zu einer ebenso unpädagogischen wie fatalen Vereinzelung vor Bildschirmen. Das soziale Miteinander im Klassenraum würde weitgehend vernachlässigt, soziales Lernen und Teamfähigkeit blieben auf der Strecke. Der Schüler würde zu einem lediglich auf technische Impulse reagierenden Datensubjekt. Von einer Abwertung bedeutsamer Kategorien wie Kreativität, Spontaneität oder ganzheitlich-ästhetischem Lernen ganz zu schweigen. Die Vorstellung von Bildung, die in der Auseinandersetzung des Individuums mit seiner Außenwelt, zum Beispiel mit den Mitschülern durch soziale Interaktionen in schulischen Räumen geschieht, würde hier durch die Dominanz des Digitalen verwässert.
Es war einige Zeit ruhig geworden um die Big-Data-Visionen im schulischen Kontext, hinzu kam die Neuausrichtung an vielen Bildungsinstitutionen nach der Corona-Pause. Bis zu einer neuerlichen KI-Welle, der man auch im Bildungskontext große Chancen einräumt: dem Hype der generativen KI, die Texte, sprachliche Äußerungen, Bilder, Videos oder Vertonungen hervorbringen (besser: erzeugen) kann. Nun soll sie in der Schule von Usern genutzt werden, von lernenden Individuen also, die eigentlich mit ihrer Intelligenz und mit anderen erlernten (z.B. sprachlichen) Fähigkeiten etwas hervorbringen sollen: Texte, Bilder, Videos oder Vertonungen. Der Unterschied zu Big Data besteht darin, dass nun nicht mehr die Schüler umfassend digital vermessen werden sollen, sondern sie selbst auf einen umfassenden Datenberg (=Trainingsdatensatz des Sprachmodells) zugreifen und mit diesem – wie im Falle von ChatGPT – schreibend oder sprechend interagieren. Eine Anfrage („Prompt“) an die Sprachmaschine zu stellen und mit dem Ergebnis weiterzuarbeiten, kann durchaus pädagogisch sinnvoll sein, da in einer didaktischen Lernumgebung Erkenntnisgewinne erzielt sowie Lernziele erreicht werden können.
Das soll hier nicht in Abrede gestellt werden, dennoch ergeben sich aus dieser Schüler-Sprachmaschine-Interaktion eine Reihe grundsätzlicher Fragen, die von KI-Verfechtern meist übergangen werden. Ähnlich wie bei Big Data übersieht man etwa aus ökonomischen Gründen („Digitalisierung first, Bedenken second!“) das Primat des Pädagogischen und nimmt die Folgen für die Bildungsprozesse in Kauf. Vom Pädagogischen auszugehen, heißt, die menschlichen Eigenschaften, die von der Maschine simuliert werden, genauer in den Blick zu nehmen.
3. Das genuin Menschliche in der Schüler-Sprachmaschine-Interaktion
Die Funktionsweise von generativen KI-Anwendungen beruht auf einem umfassenden Textkorpus, mit dem das Sprachmodell stetig trainiert wird. Das sind gespeicherte Daten aus einem formalisierten Abbild der Realität. Mit anderen Worten: möglichst viele Texte, Videos, Audios, Bilder also, die digital (zum Beispiel aus Büchern oder dem Internet) gescannt werden und an denen das Sprachmodell „lernen“ kann, um dann bei Prompts mit hoher Wahrscheinlichkeit solide Outputs bereitzustellen und im Dialog anschlussfähig zu bleiben. Greift man im Bildungssektor darauf zurück und lässt die Schüler zum Beispiel mit ChatGPT arbeiten, sollte darauf geachtet werden, welche menschlichen Züge die Maschine im Kommunikationsprozess imitieren soll und wie dies technisch in Szene gesetzt wird.
3.1 Dialogizität: „plappernde Stochastik“
Ob bei solchen Situationen tatsächlich von einem Dialog auszugehen ist, darf bezweifelt werden, zumal kein „intersubjektives Verhältnis der Personen, das für alle gleich und gleich verbindlich ist“ (Ladenthin, 2024, S. 68), vorliegt. Bei dem Chat-Bot handelt es sich mitnichten um die soziale Formation einer persona mit all ihren Erfahrungen und ihrem Weltbezug. Dieserart Schüler-Chat-Bot-Interaktion als Grundlage für einfache Informationsprozesse im didaktischen Kontext heranzuziehen, kann durchaus sinnvoll sein. Vorausgesetzt, ChatGPT ist nicht die einzige Informationsquelle und ihr Output nicht „taken for granted“. Sie auch für umfassende Bildungsprozesse als Mittel erster Wahl zu nutzen, ist pädagogisch zweifelhaft, zumal die Dialogizität einseitig bleibt. Die Maschine vermag es nicht zu leisten, genauer über den Hintergrund des ihr Mitgeteilten zu räsonieren oder alltagspraktische Dinge zu beurteilen. Noch kann sie in einen herausfordernden, echten dialogischen Austausch mit dem menschlichen Gegenüber auf der Suche nach Wahrheit treten. Letztlich simuliert und imitiert ChatGPT ein menschliches Gegenüber und trifft dabei Aussagen auf der Basis von statistischen Entscheidungen. Sie ist also, zugespitzt ausgedrückt, „nichts anderes als plappernde Stochastik“ (Hübner, 2024, S. 251).
3.2 Denken und Sprache
Schon seitdem sich Forscher mit Künstlicher Intelligenz befassen, werden Versuche unternommen, das menschliche Denken so zu formalisieren, dass es in Geräten simuliert und in Modelle gefasst werden kann. Es ist als Kulturtechnik des Menschen und verstandesgemäße Leistung jedoch zu komplex, als dass es in Gänze erfasst und kopiert werden könnte. Der Philosoph Markus Gabriel erinnert in diesem Zusammenhang an all die – auch in der Schule – bedeutsamen „Denkwörter“ wie „Scharfsinn, Klugheit, Meinen, Grübeln, Vermuten“ (Gabriel 2018, S. 198f.), die gerade heute in Zeiten von „Fake News“ und Verunsicherung wichtiger sind als je. Er konstatiert: „Die Wirklichkeit des Denkens hat eine andere Form als die Denkmodelle der (mathematischen) Logik und damit auch der Informatik.“ (ebd., S. 142). Ähnliches gilt auch für die Sprache als Ausdruck von Denkprozessen. Den schreibenden oder sprechenden Chat-Bots liegen Sprachmodelle zugrunde, die „durch ihre Orientierung am Wahrscheinlichsten zur Normierung von Sprache beitragen“ (Simanowski 2025, S. 78). Die Probleme bei der Formalisierung und so Mathematisierung von Sprache zeigen, wie schwierig es generell ist, kognitive Prozesse maschinenlesbar zu machen, um sie zu simulieren. Eine Sprachmaschine operiert nur, sie funktioniert, wobei sie den Code „wahrscheinlich – nicht wahrscheinlich“ anwendet. Man spricht hier von „phatischer“ Kommunikation: s. Art.
3.3 Erfahrungen und Wissen
Für Sherry Turkle besteht neben dem Bewusstsein, der Sprache und dem Denken der wesentliche Unterschied zwischen Mensch und Maschine im Sammeln, Artikulieren und Reflektieren von Erfahrungen. Über Erfahrungen, die Menschen im Laufe ihrer Biografie zahlreich machen, sind auch erst Gefühle wie Empathie, Trauer oder Freude möglich, zu verstehen und einzuordnen „Wir gehen mit Maschinen, die nicht den Entwicklungsweg eines Menschen gegangen sind und nie in einem menschlichen Körper gelebt haben, so um, als könnten sie an unserer menschlichen Erfahrung voll und ganz Anteil nehmen.“ (Turkle, 2019, S. 727f.) Das je subjektive Erleben, das im Sinne eines Bewusstseins verarbeitet wird und kognitiv je nach Situation abgerufen werden kann, fehlt der Maschine schlicht. Es fehlt ihr auch an Wissen: aus der große Menge an eingespeisten Trainingsdaten konstruiert ChatGPT nicht etwa Wissen, wie es ein Lernender – in der Schule schrittweise und didaktisch angeleitet – aus Informationen tut. Die KI-Anwendung kombiniert lediglich die Zeichen so, dass für einen Prompt eine möglichst anschlussfähige Sprachausgabe entsteht. Mit anderen Worten: „An die Stelle reflexiver Erkenntnis tritt damit eine algorithmische Simulation von Wissen, die nicht an Wahrheit, sondern an formale Anschlussfähigkeit gebunden ist.“ (Oswald-Rinner, 2025) Das Ziel der Anbieter ist, die Kommunikation mit der Sprachmaschine aufrechtzuerhalten.
3.4 Autorschaft und Kreativität
Fragen der Autorschaft sind bei ChatGPT heikel und ziehen auch eine Reihe von Fragen nach sich, etwa: wer spricht, wenn die Sprachmaschine auf einen Prompt reagiert? Wie verändern sich Konzepte wie Originalität oder Werkästhetik? Müssen wir Authentizität oder Kreativität im Umfeld der Maschinen neu bewerten? Dabei werden auch rechtliche Problematiken mit Blick auf das Urheberrecht diskutiert. Hier kommt der KI zugute, dass sie nicht Teile aus einem Werk einscannt, sondern das gesamte Artefakt verwendet, um etwas Neues zu erzeugen. Inwieweit dieses Neue, also der Output auf einen Prompt hin, als kreativ zu betrachten ist, wird in der gesamten KI-Debatte unterschiedlich bewertet. Gerade im Kunstbereich beispielsweise ist der Aufschrei groß, da ungefragt Millionen von Artefakten – von Menschenhand erschaffen – maschinenlesbar gemacht werden und dabei „alles zu einem statistischen Brei“ (Simanowski, 2025, S. 65) vermengt wird. Am Beispiel von Kunstbildern etwa kritisiert die Malerin und Illustratorin Molly Crabapple: „KI, die Kunst generiert, wird auf der Basis von riesigen Datenbanken trainiert, die Abermillionen von urheberrechtlich geschützten Bildern enthalten, welche ohne Wissen ihrer Schöpfer eingesammelt wurden, ohne ihre Zustimmung und auch ohne sie zu bezahlen. Faktisch ist dies der größte Kunstraub der Geschichte.“ (zit. nach Klein, 2023, S. 55)
4 Das Bildende und das Digitale
Chat-GPT ist, wie auch schon die KI-Vorgänger-Anwendungen sowie Big Data, eine Technologie, welche Schule unter bildungsökonomischen Voraussetzungen zu verändern vermag. Die kommerziellen Anbieter der KI-Anwendungen, die auch hier in die Schulen dringen, werden nicht für eine kritische Haltung der Lernenden sorgen. Es liegt an den Lehrpersonen, den Pädagogen, dafür Rechnung zu tragen, dass nicht eine Konsum-Haltung wie in der Aufmerksamkeitsökonomie der sozialen Medien entsteht, sondern pädagogische Räume erhalten bleiben, die auch mit den digitalen Techniken stets bildsam bleiben. Der gesamte Bildungsbereich darf nicht dem Fehler unterliegen, die in der Gesellschaft nach wie vor „(diskursive) Mächtigkeit generativer KI“ (Tramp, 2025, S. 17) unhinterfragt für Lehr-Lernprozesse zu postulieren. Ferner sind Erfahrungen mit KI aus anderen Disziplinen (z.B. der Wirtschaft) nicht auf den Bildungsbereich zu übertragen, stattdessen ist zu überlegen, wie bildsame Prozesse angestoßen und gestaltet werden können.
4.1 Soziale Beziehungen statt unkritischer Datensubjekte
All diese digitalen Techniken sind geeignet, die für Bildungs- und Entwicklungsprozesse bedeutsamen „Beziehungen zur Welt und zu anderen abzutrennen und in ausrechenbare, passförmige Relationen zu transferieren“ (Jergus, 2018, S. 211), je nach Design, Funktionsweise und Einsatz der Maschinen. Das soziale Miteinander im Kontext Schule hingegen, das Aushandeln von Positionen, die Persönlichkeitsbildung und Identitätssuche als wichtige Merkmale von Bildungsprozessen – all dies gerät durch eine reibungslose, vorausberechnete und Kommunikation mit den digitalen Technologien in den Hintergrund. Genauso wie ein ästhetisch-ganzheitliches Lernen mit all den haptischen Elementen.
Aus vielfältig lernenden Subjekten werden durch einen breiten Einsatz von Big Data, ChatGPT und Co. in unterrichtlichen Lehr-Lernprozessen Datensubjekte und beziehungslose, da vor Bildschirmen vereinzelte, isolierte Akteure. „Statt der im Bildungsdenken konstitutiven Welthaftigkeit des Selbst“ (ebd.) mit offenen Begegnungen, Neugierde und verschiedenen Perspektiven auf eine Sache kommt mit den Sprachmaschinen jedoch eine Engführung des Dialogs in die Klassenzimmer. Reibung, Debatten, Diskurse, die für Meinungsbildungen in einer Demokratie und für Identitätsfindungsprozesse bedeutsam sind, lassen sich im Austausch mit ChatGPT nur schwer zu realisieren. Gerade dies wäre jedoch in Krisenzeiten der Verunsicherung ein wahrer Fortschritt im Rahmen der KI.
4.2 Vertrauen in die Pädagogen statt in das Design der Maschinen
Der Soziologe Dirk Baecker spricht von einem „Vertrauen in das Design“ (2018, S. 250) digitaler Technologien, das in der Gesellschaft vorhanden, jedoch „kein blindes, sondern ein laufend überprüftes Vertrauen“ (ebd.) sei. Gerade in Bildungseinrichtungen und -prozessen gilt es, dieses Vertrauen kritisch zu reflektieren und dabei auch die Lehrerrolle und -professionalität einzubeziehen. Wenn Schüler mehr mit dem ChatBot agieren als den Lehrer oder Mitschüler um Unterstützung zu fragen, liegt sicher eine Schieflage der Vertrauensverhältnisse vor.
Gerade Pädagogen und Mitschüler können auch Vertrauenspersonen in privaten Belangen der Schüler sein: bei Problemen und Sorgen im Entwicklungsprozess, die man der Sprachmaschine eher nicht anvertraut. Bei all dem aus der Aufmerksamkeitsökonomie der Social-Media-Plattformen und aus der Zeit um Big Data aufgebauten Vertrauen ist auch aus bildungstheoretischer Sicht zu bedenken: „Jedem Design eilt der Ruf voraus, letztlich verdächtig zu sein, uns eine Oberfläche nur vorzutäuschen, unter der weitere, aber versteckte Oberflächen ganz anderen Interessen und Funktionslogiken dienen.“ (ebd., 256) Das gilt für die „Black Box“ der Algorithmen allgemein und für die KI-Chat-Bot-Anwendungen im Besonderen.
4.3 Auf einer Metaebene über die Sprachmaschine lernen
Daher kommen wir im Bildungssektor nicht umhin, diese aufzudecken, wenn wir mit einem Gegenüber agieren, von dem wir nicht viel wissen, nicht einmal, wie die Autorschaft seiner Aussagen einzuordnen ist. Wir wissen jedoch von Big Data und bisherigen KI-Anwendungen: „Der Umgang mit diesen wirkt darauf zurück, wie wir das wahrnehmen oder einordnen, was wir mit ihnen bearbeiten.“ (Tramp, 2025, S. 5; siehe auch Simanowski, 2025).
In der gemeinsamen Auseinandersetzung mit der Sprachmaschine auf einer Metaebene im Unterricht gilt es daher zu lernen, wie sie funktioniert, wie sie wirkt und wie sie auch das gesellschaftliche Miteinander verändern kann. Konkret hieße das zum Beispiel, sich fächerübergreifend genauer mit den Prompt-Eingaben und den Artefakten (besser: Outputs) zu beschäftigen. In puncto Output sollten Schüler etwa beurteilen lernen, wie ChatGPT zu ihrer Ausgabe kommt und dass ein sprachlich differenzierter Prompt zu einer genaueren Antwort führt. Hier kann auch der eigene Sprachgebrauch bewusst thematisiert werden.
Auf einer reflexiven Ebene geht es also darum, „dass wir den Output einer generativen KI ähnlich zu lesen lernen, wie wir lernen, individuell einen Text im Kontrast zu allgemeinen Bestimmungen zu beurteilen.“ (Tramp, 2025, S. 21) Ein Agieren mit den KI-Anwendungen ohne diese Metaebene, auf der sicher weitere Aspekte (z.B. ethische, rechtlich, etc.) thematisiert werden können, bringt schwerlich verantwortungsbewusste, kritische Mediennutzer hervor. Im Klassenverbund gemeinsam zu reflektieren, was die Sprachmaschine mit uns und unserer Weltwahrnehmung macht, sollte stets Teil des Bildungsprozesses mit und über KI sowie Voraussetzung für den künftigen Umgang mit ihr sein.
Dies ist ein Beitrag von Markus Reinisch unter der Creative-Commons-Lizenz BY NC ND. Der Download und die Weitergabe der Beiträge unter Nennung des Namens und der Quelle ist ausdrücklich erwünscht. Jegliche Bearbeitung oder kommerzielle Nutzung des Inhalts ist ausgeschlossen.
Literaturverzeichnis
Baecker, D. (2018): 4.0 oder Die Lücke die der Rechner lässt. Merve.
Dräger, J. & Müller-Eiselt, R. (2015): Die digitale Bildungsrevolution. Der radikale Wandel des Lernens und wie wir ihn gestalten können. DVA.
Ifenthaler, D. & Schumacher, C. (2016): Learning Analytics im Hochschulkontext. In WiSt – Wirtschaftswissenschaftliches Studium 45(4), 176–181.
Gabriel, M. (2018): Der Sinn des Denkens. Ullstein.
Hübner, E. (2024): Plappernde Stochastik – Ihre stumme Forderung an die Pädagogik. In R. Lankau (Hrsg.), Die pädagogische Wende – Über die notwendige (Rück-)Besinnung auf das Unterrichten (S. 247-260). BELTZ.
Jergus, K. (2018): Zwischen – Überschreitung – Vermittlung. Eine Skizze zur Medialität des Pädagogischen. In S. Schenk & M. Karcher (Hrsg.), Überschreitungslogiken und die Grenzen des Humanen. (Neuro-)Enhancement, Kybernetik, Transhumanismus (S. 197– 215). epubli.
Klein, N. (2023): Der maskierte Raub. Künstliche Intelligenz und die Halluzination der Tech-Konzerne. In Blätter für deutsche und internationale Politik 68(6), 53–62.
Ladenthin, V. (2024): Unterricht und Person – Vorschlag für die Artikulation eines bildenden Unterrichts. In R. Lankau (Hrsg.), Die pädagogische Wende – Über die notwendige (Rück-)Besinnung auf das Unterrichten (S. 57–76). BELTZ.
Lankau, R. (2019): Digitalisierung als De-Humanisierung von Schulen oder: Vom Unterrichten zum Vermessen. Bildungseinrichtungen unter dem Diktat von Betriebswirtschaft und Datenökonomie. pad.
Oswald-Rinner, I. (2025): Pathologie des Wissens – Wie Künstliche Intelligenz die gesellschaftliche Konstruktion von Wissen zum Patienten macht. In Bildung-Mensch-Medien 2025. Verfügbar unter: https://bildung.hypotheses.org/7486 [letzter Zugriff am 28.12. 2025].
Simanowski, R. (2025): Sprachmaschinen – Eine Philosophie der Künstlichen Intelligenz. C.H. Beck.
Tramp, D. (2025): Bildung als selbstbewusster Prozess: Von der Notwendigkeit kritischer Haltung zu generativer KI. In Medienimpulse 63(2), 31 Seiten.
Turkle, S. (2019): Empathie-Maschinen. Der vergessene Körper. In Psyche – Zeitschrift für Psychoanalyse und ihre Wissenschaften (73)9/10, 726–743.
Über den Autor
Markus Reinisch, Jg. 1978, ist seit 2007 Lehrer an einer bayerischen Mittelschule.
Er schreibt neben literaturdidaktischen und gesellschaftspolitischen Beiträgen kritisch zu Themen der Digitalisierung für verschiedene Zeitschriften. Zuletzt sind einige Aufsätze zu Big Data-, Algorithmen- und zur Kybernetik-Kritik erschienen. Der Autor nimmt darin aus pädagogischer Sicht die Veränderung von Bildungs- und Erziehungsprozessen durch das Digitale in den Blick.
Von Markus Reinisch ist u.a. erschienen: Aspekte eines verzweckten und vernachlässigten schulischen Erziehungsbegriffs. In: Lankau, Ralf (Hrsg.): Die pädagogische Wende. Über die notwendige (Rück-)Besinnung auf das Unterrichten. Weinheim 2024, S. 176 – 188.
Kontakt: Markus.Reinisch@gmx.de
OpenEdition schlägt Ihnen vor, diesen Beitrag wie folgt zu zitieren:
Markus Reinisch (11. Februar 2026). Beziehungslose Akteure – Wie die Interaktion mit Künstlicher Intelligenz den Bildungsbegriff weiter verändert. Bildung – Mensch – Medien. Abgerufen am 14. Februar 2026 von https://doi.org/10.58079/15o03