KI und Unterricht – Fragen und Antworten.
1. Was macht die KI mit der Schule?
Das, was wir umgangssprachlich KI nennen, sind Steuerungssysteme, der Fachbegriff dafür ist Kybernetik. KI ist im Kern Automatisierungstechnik (Messen, Regeln, Steuern). Das per Rechner und Avatar (oder heute: ChatBot) automatisierte Beschulen und Testen dient dazu, Repetitionswissen zu vermitteln und ebenfalls automatisiert abprüfbar zu machen. Dahinter steht die Metapher der Produktion von Humankapital mit validierten Kompetenzen, wie es sich Kybernetiker und Informatiker, Psychologen und Betriebswirte (Chicago School of Economics) ausgedacht haben. Mit Digitaltechnik als Infrastruktur und Prüfmethoden des Quality Managements (QM) werden Kinder und Jugendliche dazu gebracht, sozial isoliert an ihren Lernstationen zu arbeiten und die vom System vorgegebenen Aufgaben zu lösen. Eine Software (Learning Analytics) wertet das Lernverhalten aus und steuert den Prozess.
Keine Intelligenz: Eine KI versteht nichts von dem, was sie tut. Es ist ein mathematisches System, das per Algorithmen (das sind Handlungsanweisungen für den Computer) funktioniert und diese Befehle systematisch nach Vorgabe abarbeitet. Eine KI hat weder einen Willen noch ein Bewusstsein oder eine Absicht. Es ist eine Maschine, die Daten von Kameras, Mikrofonen und Sensoren oder Tastatur-und Mauseingaben verarbeitet und im Idealfall fehlerfrei läuft. Andernfalls muss die Maschine repariert, der Code modifiziert werden.
Die Frage ist eher: Was machen solche Systeme mit Schülerinnen und Schülern? Die Antwort: Man gewöhnt junge Menschen an das Arbeiten am Bildschirm und an vermeintlich allmächtige Systeme (!), die sie weder durchschauen noch hinterfragen können. Das ist wie mit der Schulmaschine bei Isaac Asimov („Die Schule“ von 1957). Die neunjährige Margie sitzt vor einem Gerät mit Bildschirm und Schlitz zum Einwerfen der Hausaufgaben. Sie ist der Maschine hilflos ausgeliefert. Geht die Maschine kaputt, muss der Schulinspektor kommen, der die Maschine repariert. Dann geht’s alleine weiter am Bildschirm.
Heute müssen Kinder zwar keinen Lochcode mehr lernen wie Margie, um Hausaufgaben damit zu schreiben. Sie tippen und wischen direkt am Touchscreen. Aber im Prinzip sind KI-Systeme nichts anderes als die Lernmaschinen von Asimov, vor denen die Kinder (bei Asimov: zu Hause im Schulzimmer) sitzen und tun, was die Maschine vorgibt. Kontrollieren können sie die Maschine nicht, sie werden von den Maschinen gesteuert. Im Kern bauen IT-Entwickler für Lernsoftware seit 70 Jahren die Asimovsche Maschine nach, begleitet von Psycho-Technikern, die auch die Psyche vermessen.
2. Welche Chancen bieten Programme mit „Künstlicher Intelligenz“ für den Unterricht, z.B. im Kunstunterricht oder in anderen ausgewählten Fächern?
Um es deutlich zu formulieren: Die derzeit diskutierten KIs wie ChatGPT oder Bard sind für den Unterricht keine große Hilfe, weil es ein unkontrollierbares Werkzeug ist. Weder kennt man die zugrundeliegenden Algorithmen dieser Systeme noch den Datenbestand, mit dem die KI rechnet. Die Datenbasis ändert sich zudem mit jeder Eingabe. Jede Nutzereingabe (= Prompt) wird zusammen mit der automatisch generierten Antwort wieder Teil der Datenbasis für alle folgenden Anfragen und vergrößert so den Datenbestand – ohne auf Gültigkeit oder Relevanz geprüft zu werden. Die aktuellen Systeme sind zudem regelrechte „Datenstaubsauger“, die alles im Netz scannen, was nicht per Firewall und Verschlüsselung explizit geschützt ist.
Übrigens geschieht dies ohne Rücksicht auf Urheber- oder Nutzungsrechte, weswegen viele Rechtsverfahren anhängig sind. Eine Qualitätskontrolle findet schon ob der schieren Menge der gescannten Dokumente nicht statt. Die Parameter zur Klassifizierung der Texte und Bilder werden berechnet, nicht geprüft. KIs sind Black Boxes, was die Funktionsweise (Algorithmen), die zugrundeliegenden Parameter (Attribute, Werte) der Berechnung von Ausgaben und die Daten selbst betrifft. Da sich diese Systeme durch das „maschinelle Lernen“ (ein Euphemismus für das automatisierte Generieren weiterer Algorithmen auf der Basis von Mustererkennung und Statistik) selbst modifizieren, ohne dass Menschen diese Ergänzungen und/oder Modifikationen noch kontrollieren (können), wissen nicht einmal die Experten, was diese Systeme tun – und warum. Es sind „Zauberlehrlinge“, sie starren wie die Kaninchen vor der Schlange auf die Ergebnisse, deren Zustandekommen auch ihnen zunehmend ein Rätsel ist. Wer das nicht glaubt, nehme die Zahlen zur Kenntnis, mit denen KI-Systeme beworben werden: Milliarden von gescannten Dokumenten, Billionen von Parametern …
Es ist elektronischer Treibsand, man hat keinen Boden unter den Füßen. Im Ergebnis bekommt man auf die identische Frage eine Stunde oder einen Tag später nur noch eine ähnliche Antwort. Das kann man im Unterricht ein- oder zweimal demonstrieren, dann ist das Thema abgehakt. Oder will jemand ernsthaft mit zufälligen Ergebnissen, Daten und Fakten unterrichten? Mit KIs kann man zwar – etwa im Kunstunterricht – zeigen, dass diese Bots aufgrund einer Nutzereingabe in Sekundenschnelle beliebiges Zeug generieren wie ein Kaleidoskop – mit jedem Dreh entsteht etwas Anderes. Aber es bleibt genauso beliebig und zusammenhangslos wie die zufälligen Muster, die beim Drehen des Kaleidoskops entstehen: nett anzusehen, aber komplett sinnfrei und nach kurzer Zeit langweilig durch Wiederholung und Bedeutungslosigkeit. Im Unterricht braucht man stattdessen zuverlässige Quellen, belastbare Texte und valide Daten. Daher sollte man mit Lehrmaterial arbeiten, das von Fachkräften erstellt und von Kultusministerien geprüft wurde.
3. Welche Möglichkeiten eröffnen sich für Lehrkräfte, wenn sie KI-Programme zur Unterrichtsvorbereitung etc. einbauen können?
KI-Systeme sollte man nur thematisieren (und dafür ggf. eine OpenSource-Variante als Demonstrationsobjekt installieren), um deren völlige Irrelevanz für Lernprozesse zu zeigen. Denn bei KI handelt es sich lediglich um eine Automatisierungstechnik bzw. um automatisierte Datenverarbeitung. Das ist ein Teilgebiet der IT. Wie alle technischen Systeme können diese Anwendungen bestimmte Dinge sehr gut, nämlich das, wofür sie programmiert werden. Ein Schachcomputer z.B. kann besser Schach spielen als die meisten Menschen, weil alle nur denkbaren Schachzüge vom ersten bis zum letzten Zug im System hinterlegt sind und ein Rechner die jeweils wahrscheinlich besten Züge berechnet, emotionslos und ermüdungsfrei. Gleiches gilt für GO, da genügt es, die Regeln zu hinterlegen und das System rechnet alle Varianten durch, alles nur eine Frage der Rechenzeit. Das System „weiß“ aber weder etwas vom Spiel noch vom Sinn oder Unsinn der Berechnung. Die Frage ist daher: Was will man im Unterricht denn genau automatisieren oder demonstrieren?
Der zweite Bereich, in dem diese Systeme hilfreich sein können, ist das Berechnen. Die Microsoft-Deutschland-Chefin Sabine Bendiek formuliert es für die FAZ so: „Eine KI kann viele Dinge ganz toll, aber letztlich rechnet sie auf Basis von großen Datenmengen“ (Armbruster 2019). Was wollen Sie also im Unterricht „auf Basis von großen Datenmengen“ im Unterricht berechnen? Denn alles andere, was diese Tools der generativen KI ansonsten produzieren – etwa Gliederungen und Texte für Referate und Hausarbeiten, Präsentationen, komplette Layouts, Computercode etc. – kann man zwar von der KI generieren lassen (was landauf, landab bereits praktiziert wird), nur lernen Schülerinnen und Schüler dadurch nichts. Vielleicht lernen sie das Formulieren und eventuell das Optimieren von Prompts, das Lesen oder Betrachten von computergenerierten Artefakten. Aber ist das das Ziel von Unterricht? Optimale Prompts zu formulieren (die man übrigens ebenfalls aus dem Netz laden kann, sortiert nach Schulfächern)?
Dafür muss man im zweiten Schritt diese computergenerierten Ausgaben prüfen und die bis zu 30 % Fehler eliminieren. Die Systeme werden mit der Zeit übrigens nicht (!) besser, weil per ChatGPT & Co. zwar ungeheuer schnell ungeheuer viel an Texten etc. generiert werden kann, aber ohne Qualitätskontrolle steigt der Anteil an Fehlmaterial. Sollen Schülerinnen und Schüler darauf hoffen, dass auch die zukünftig per KI ausgebildeten Lehrkräfte computergenerierte Texte ungeprüft durchlaufen lassen, weil sei selbst gar nicht mehr wissen, was richtig und was falsch ist?
4. Welche Risiken sind damit verbunden?
Die grundlegende Gefahr, die sich durch den Einsatz von KI-Systemen in Schulen ergeben, ist vielfältig und leider nachhaltig. „KI ruiniert das Motivationsgefüge des herkömmlichen Unterrichts“, so formuliert Gottfried Böhme und führt aus:
„Künstliche Intelligenz bricht der Schule, wie sie heute existiert, das Rückgrat. Es hat in der Geschichte der Bildungseinrichtungen noch nie eine Erfindung gegeben, die so infam die gesamte Motivationsstruktur des Lernsystems infrage gestellt hat wie diese Atombomben-KI – um mich hier deutlich zu outen. Wir ziehen gerade eine Generation von Jugendlichen heran, die eine Zeitlang ihren Lehrern noch vorgaukeln kann, dass das, was ihnen ChatGPT oder ein anderes Programm geschenkt hat, ihre Leistung sei, und bald nicht mehr wissen, warum sich Lernen überhaupt noch lohnen soll.“ (Böhme 2023, S. 9)
KI-Bots korrumpieren die generelle Leistungsbereitschaft junger Menschen und gewöhnen sie daran, sich technischen Systemen und deren Berechnungen als vermeintlich gültige Hilfsmittel anzuvertrauen. Bequemlichkeit und Faulheit sind menschliche Eigenschaften, helfen beim Lernen aber leider nicht. Das vermeintlich einfache Erzeugen von vermeintlich unterrichtsrelevanten Leistungsnachweisen (Texte, Bilder, Präsentationen) verhindert die eigene Auseinandersetzung mit Sprache und Text, mit Grafiken und Bildern und damit den schöpferischen, den kreativen Akt der Ideenfindung und der Konzeption. Bots verhindern das freie Spielen von Phantasie und Vorstellungskraft, das am Anfang einer jeden Arbeit stehen sollte – egal, ob Aufsatz oder z.B. Zeichnung –: das Suchen nach individuellen Lösungen, Skizzen, Ideen, das Finden und Verwerfen.
Wer stattdessen eine KI befragt, bekommt eine statistisch vermutlich halbwegs korrekt berechnete Scheinlösung ohne Esprit und Geist, ein Muster ohne Wert, wie das zufällige Bild des Kaleidoskops. Das reicht vielleicht als Bluff einer „Leistung“, aber es findet weder ein Lern- noch ein Verstehensprozess statt. Es ist „mentales Fastfood“ wie die Tiefkühlpizza aus der Mikrowelle. Dabei lernt man nicht kochen. So trainiert man Schüler/innen, zu funktionieren wie ein Apparat (generiere für das Fach X Text Y), anstatt Lernen und Verstehen zu ermöglichen, sodass junge Menschen verständige Personen werden können, die Neugier und Freude als eigenes aktives Tun erleben und so zu Erkenntnissen kommen.
5. Wie muss die Lehrerbildung sich zukünftig ändern, wenn sie auf die Digitalisierung der Schule verantwortungsvoll vorbereiten will?
Der erste und wichtigste Punkt: Nur wer unterrichten kann und will, sollte Lehrkraft werden (wollen und dürfen). Denn keine Medien- und keine Digitaltechnik kann den notwendig interpersonalen Prozess des Lernens in Gemeinschaft ersetzen. Lernen bedeutet immer Interaktion als Beziehung und Vertrauen zueinander. Es bedeutet, sich auf das Gegenüber als Mensch einzulassen und im Dialog das „Verstehen lehren“ zu ermöglichen, wie es Andreas Gruschka (2011) formulierte und wie es Immanuel Kant zum Ausdruck brachte: „Zum Denken lernen als Ziel von Lehre und Unterricht brauchen wir ein menschliches Gegenüber, den direkten Dialog“ so der deutsche Philosoph der Aufklärung im Text „Was heißt: sich im Denken orientieren?“ (1786). Sonst bekämen wir nur leere Köpfe, die zwar das Repetieren (heute: Bulimie-Lernen) trainieren, aber nicht selbstständig denken und Fragen stellen könnten.
Das entscheidende Merkmal einer Lehrpersönlichkeit ist denn auch nicht deren Medienbedienkompetenz, sondern Persönlichkeit, Begeisterung für das eigene Fach und die Vermittlungsfähigkeit von Fachwissen und Können. Wem dazu eine grüne Tafel und Kreide genügt, bitte. Wer sich lieber am Tablet festhält und Bilder projiziert, meinetwegen. Entscheidend ist, was man authentisch und souverän vermitteln und für was man Schülerinnen und Schüler begeistern kann. Dazu kommt ein notwendig distanziertes und reflektiertes Verhältnis zur digitalen Infrastruktur und den damit verbundenen Diensten und Techniken. Denn wer verstanden hat, dass Digitaltechnik im Kern Kontroll- und Steuerungstechnik ist (Zuboff 1988: Automatisieren. Digitalisieren. Kontrollieren) und wer realisiert, dass wir im Zeitalter des Überwachungskapitalismus (Zuboff 2018) unfreiwillige Datenspender für die Datenökonomie sind, wird sowohl die eigene Nutzung digitaler Dienste einschränken wie deren Einsatz in Bildungseinrichtungen. Und er wird den Rückkanal für Schülerdaten kappen. Zudem sind Nutzen und Mehrwert digitaler Medien im Unterricht nach wie vor nicht belegt.
Aber es gibt alternative Szenarien für den Einsatz von IT in Schulen, ohne Rückkanal für Nutzerdaten und damit ohne Datenverlust (Lankau 2020). Dazu muss man „nur“ das eigene Verhalten ändern und eine andere Infrastruktur für Schulen aufbauen. Veränderung beginnt im eigenen Kopf. Nur wer selbst nicht kontrolliert und gesteuert werden will, ist sensibel für die allgegenwärtigen Manipulationstechniken der IT-Wirtschaft und Datenökonomie. Das Ziel sollte eine digital souveräne Schule sein, in der die Datengenerierung auf das technisch notwendige Minimum reduziert wird und niemand außerhalb der Schule Zugriff auf Schülerdaten und Profile bekommt. Das geht technisch, wird aber von IT-Anbietern und den Lobbyisten der Datenwirtschaft unterlaufen.
6. Welche Gefahren lauern in KI-Programmen, wenn man an die Leistungsmessung des persönlichen Bildungsstatus von Schülerinnen und Schülern denkt? Welchen Hausaufgaben kann man trauen? Welche Leistungsbewertung werden wir in Zukunft in Schulen haben? Wie verbindlich sind die Beurteilungen?
Die „Datafizierung von Schule“, also das Sammeln und Auswerten von Verhaltensdaten und Lernleistungen der Schülerinnen und Schüler zeichnet sich durch eine immer größere Ausweitung der Datensammlung und eine zunehmende Steuerung der Beteiligten durch diese Daten und Schülerprofile aus. Es entspricht der Logik der Datensammler, dass sie immer mehr und immer genauere, kleinteiligere Daten erheben und behaupten, man brauche diese, um bessere (Lern-)Ergebnisse zu erzielen (vgl. Hartong 2019, 2018). Dazu werden immer mehr Datenerfassungsprogramme installiert und immer mehr Daten erhoben und ausgewertet.
Nach dieser Logik sind Schüler/innen Datenspender wie die Konsumenten im Überwachungskapitalismus. Auch als schulische Leistung ist nur relevant, was datentechnisch erfasst und ausgewertet werden kann. Schule verkommt zur Datensammelanstalt für Schülerdaten. Und: Alles, was sich nicht vermessen lässt – persönliche Entwicklung, das soziale Miteinander, die Schulgemeinschaft mit allen Herausforderungen etc. – wird ausgeblendet. Menschen werden zu Repräsentanten ihres Datenprofils. Hausaufgaben sind in diesem System letztlich obsolet, weil die Aufgaben ohnehin am Rechner umgesetzt werden sollen, damit man die Schüler beim Lösen beobachten und steuern kann.
Auch die Beurteilungen werden in diesem System praktischerweise vom System selbst übernommen, sind mathematisch korrekt berechnet und statistisch exakt gemittelt. Die ehemaligen Lehrkräfte dienen nur noch Sozialcoach und Aufsichtsperson bei Minderjährigen. Erste Versuche, ganz ohne Lehrkräfte auszukommen (siehe „Facebooks Summit Learning“), sind zwar gescheitert, gelten aber weiterhin als „Vision“ und mittelfristiges Ziel, wenn bis dahin intelligente Avatare und die KI übernehmen.
7. Wie verändert sich u.U. das Menschenbild:
von der Lehrkraft, aber auch von Schülerinnen und Schülern?
Wie bei Asimov „Die Schule“ ist das Menschenbild der Kybernetiker und Psychotechniker rein funktional und auf Erfüllung der von extern vorgegebenen Leistungsanforderung ausgerichtet. Der Mensch wird selbst als steuerbare Maschine definiert. Und die Lernmaschine, so heißt es schon bei Asimov, sei exakt auf das jeweilige Kind eingestellt und könne es optimal beschulen. Es sind auf Effizienz getrimmte Prozesse der (Selbst)Optimierung, die bei Yuval Noah Harari in letzter Konsequenz dazu dienen, den Maschinenpark der „kosmischen“ Datenverarbeitungssysteme zu optimieren:
„Menschen sind lediglich Instrumente, um das Internet der Dinge zu schaffen, das sich letztlich vom Planeten Erde aus auf die gesamte Galaxie und sogar das gesamte Universum ausbreiten könnte. Dieses kosmische Datenverarbeitungssystem wäre dann wie Gott.“ (Harari, 2017, 515)
Und dieser Maschinen-„Gott“ unterrichtet dann die Kinder … Für Eltern wie Kinder ist das zu Lernende intransparent und wird notgedrungen ersetzt durch das erzwungene Vertrauen in die Maschine und die Maschinenentwickler. Dahinter verbirgt sich die Forderung nach einem unbedingten Fortschrittsglauben und einem Technikdeterminismus, der die Entscheidungshoheit des Menschen delegiert: nämlich an technische Systeme, die zunehmend intransparent werden. Informatiker und Ingenieure werden zu Hohepriestern zunehmend autonom agierender Systeme, die immer komplexer und unverständlicher werden. Allein der unbeirrbare Glaube (!) an die Relevanz und Stabilität dieser Systeme soll genügen, um sich ihnen anzuvertrauen.
Intelligent ist das nicht, zu verantworten ebenfalls nicht. Für Bildungseinrichtungen sind diese Systeme vollständig ungeeignet. An diesen Maschinen konditioniert man Untertanen als Befehlsempfänger. Es sind Dystopien, die man im Bereich der Science Fiction belassen sollte, statt sie nachzubauen – auch wenn es technisch heute möglich ist und in China vollumfänglich praktiziert wird: z.B. im öffentlichen Raum mit Social Scoring Systemen und in Schulen mit Kameras und totaler Kontrolle der Aktionen und Vermessung der Psyche. Kybernetiker, Behavioristen (programmiertes Lernen) und Informatiker wollen den determinierten Menschen, beklagte Martin Schulz, der damalige EU-Präsident, schon 2013. Zehn Jahre später sind die Systeme im Einsatz.
In den Schulgesetzen der Länder steht anderes. Die nachfolgende Generation hat ein Recht auf ein eigenständiges, selbstbestimmtes Leben und darauf, in der Schule valides und prüfbares Wissen und Können vermittelt zu bekommen, um ihre eigene humane Intelligenz zu trainieren. Humane Intelligenz (HI) ist das Ziel von Unterricht: Reflexionsvermögen und Kritikfähigkeit, nicht das Nachplappern der algorithmisch generierten Konfabulationen und Halluzinationen der Bots.
8. Kann die KI die riesigen Lücken, die durch den Lehrermangel entstehen, verringern? Wenn ja, zu welchem Preis? (z.B. „digitale Pädagogen“ in Sachsen)
Nein, keine Maschine und kein IT-System kann die notwendigen und elementaren pädagogischen und didaktischen Interaktionen zwischen Schülerinnen/Schülern und Lehrenden übernehmen. Ausnahmen wie das Einbinden kranker Kinder per Video in den Klassenunterricht oder die Simulation von Unterricht wie in der Pandemie haben über entsprechende Studien gezeigt, dass das gemeinsame Lernen im Klassenverband mit Präsenz sowohl der Lehrenden wie der Lernenden nicht digital abgebildet werden kann. Die Folge waren in allen Ländern Lernrückstände – selbst dort, wo Tablets vorher regelmäßig im Unterricht eingesetzt wurden, wie z.B. in den Niederlanden. Acht Wochen Schulschließung bedeuteten auch dort acht Wochen Lernrückstand.
Wer also glaubt, den in Deutschland seit bereits mehr als 25 Jahren dokumentierten Lehrermangel durch technische Geräte kompensieren zu können, sollte sagen (müssen), wer für solche bewussten und vorsätzlichen Falschaussagen bezahlt. Und das sind in der Regel die Hersteller, so jedenfalls die UNESCO-Studie „2023 Global Education Monitor“. Das Ergebnis: Bei den aktuellen IT-Konzepten für Bildungseinrichtungen stehen nicht das Lernen und der pädagogische Nutzen im Mittelpunkt, sondern wirtschaftliche Interessen der IT-Anbieter und Aspekte der Datenökonomie.
Der internationale Bildungsmarkt ist hart umkämpft: Es werden Milliardenumsätze generiert und noch mehr Umsätze (Stichwort Lehrermangel) prognostiziert. Und für KI-Systeme gibt es derzeit Unmengen an Venture Capital. Man muss nur eine gute Geschichte erzählen wie Sam Altmann mit Open AI – und reichlich Rendite versprechen. Vergessen wird dabei, dass man die Bildungsbiografien der Kinder den kurzfristigen Erträgen opfert.
9. Welche Anforderungen muss man zukünftig an Lehrkräfte stellen, damit sie vor lauter Technik nicht die Pädagogik vergessen?
Im Grunde ist es einfach. Als Lehrkraft muss man sich lediglich jeden Tag daran erinnern, dass es nur menschliche, keine maschinelle Intelligenz gibt. Maschinen sind weder intelligent noch können sie überhaupt denken. Sie wollen nichts und wissen nichts. Aber die Überhöhung von Maschinen zu Lebewesen ist nur ein Zeichen dafür, dass der Mensch seinen Glauben und den Zugang zur Metaphysik verloren hat. Dieser Verlust wird mit mechanischen, elektronischen, heute digitalen Konstrukten kompensiert. Das sind Phantastereien, die leider allzu oft davon ablenken, dass mit diesen technischen Systemen extrem viel Geld verdient wird, auch wenn nichts davon nachhaltig ist.
Wir zerstören derweil – auch mit der immens energiehungrigen IT-Infrastruktur und immer neuen Rechenzentren – unsere Lebensgrundlagen, anstatt zu fragen, wo Automatisierungstechnik hilfreich wäre. Wir differenzieren nicht. Wir hören stattdessen den Heilsversprechen eines Elon Musk und anderer „Visionäre“ zu. Deren Credo: Die Erde sei bereits verloren, so die „Akzelerationisten“, die den Mars besiedeln wollen, während sie die Erde ausbeuten und zerstören. Akzeleration bedeutet Beschleunigung. Unter dem Schlagwort „effektiver Akzelerationismus“ werden im Silicon Valley ein enthemmter Kapitalismus und das Hohelied neuer Technologien propagiert, ohne Rücksicht auf die Folgen für das Gemeinwohl oder die Umwelt. Man erkennt solche Profile auf Social Media an der Abkürzung „e/acc“ wie bei Elon Musk oder Marc Andreessen. Es sind die Kürzel für Rücksichtslosigkeit und Technikwahn.
Aus der „schwachen“ Artificial Intelligence (AI) werde eine „starke“ (allgemeine) Artificial General Intelligence“ (AGI) und schließlich eine „übermenschliche“ Artficial Superintelligence“(ASI), so z.B. Sam Altman. Diese Marketing-Strategie will davon ablenken, dass die einzig relevante Intelligenz die menschliche ist: Human Intelligence statt AI, AGI oder ASI. Aufgabe und Thema von Schule ist es, diese humane Intelligenz zu fördern, Selbst-Denken in den Mittelpunkt von Unterricht zu stellen und junge Menschen vor unhaltbaren technischen Versprechen zu bewahren.Das zu vermitteln wäre – intelligent. Der Münchner KI-Professor Ommer formuliert es so:
„Die großen Sprachmodelle hätten etwas Grundsätzliches über Intelligenz nicht verstanden: Dass nicht Überfluss, sondern erst Beschränkung zu intelligenten Lösungen führe. Unsere Vorfahren hätten ihre Intelligenz ja auch mit Stöcken und Steinen entwickelt und nicht in bequemen Autos.“ (Brühl 2013 a, S. 14).
Schülerinnen und Schüler müssen ihre eigene Intelligenz nutzen und trainieren, um eine selbstbestimmte Zukunft in einer hochtechnisierten Umwelt zu haben. Sonst bleiben sie Abhängige an Display und Touchscreen.
Literatur und Quellen
Andreessen, Marc (2023) Why AI Will Save the World (aufgerufen am 19.6.2023)
Armbruster, A.: Nicht jeder muss ein Informatiker sein, Interview mit Microsoft-Deutschland-Chefin Sabine
Bendiek. In: FAZ vom 01.04.2019; Frankfurt, 2019: (Abruf: 6.4.2019).
Böhme, Gottfried (2023) KI im Unterricht: ChatGPT bricht der Schule das Rückgrat, in: FAZ vom 14.6.2023, S. 9; (aufgerufen am 15.6.2023).
Brühl, Jannis (2023a). Ein Jahr Chat-GPT: Keine Hoffnung auf Luxuskommunismis, in: SZ vom 30.11.2023, S. 18.
Brühl, Jannis (2023b) Wie ein Münchner KI-Professor gegen den Größenwahn der Branche kämpft, in_SZ vom 13.12.2ß23, S. 14.
Grunwald, Armin (2019) KI: Gretchenfrage 4.0, in SZ vom 28.12.2019, S. 11.
Gruschka, Andreas (2011) Verstehen lehren. Ein Plädoyer für guten Unterricht. Stuttgart
Harari, Yuval Noah (2017). Homo Deus, München 2017
Hartong, Sigrid (2019) Learning Analytics und Big Data in der Bildung Zur notwendigen Entwicklung eines datenpolitischen Alternativprogramms Dokumentation zur Veranstaltung; hrsg. GEW Frankfurt.
Hartong, Sigrid (2018): „Wir brauchen Daten, noch mehr Daten, bessere Daten!“ Kritische Überlegungen zur Expansionsdynamik des Bildungsmonitorings; in Pädagogische Korrespondenz, Heft 58, S. 15 – 30.
Kant, Immanuel (1786). Was heißt: sich im Denken orientieren? In: Immanuel Kant: Werke in zwölf Bänden. Band 5, Frankfurt am Main 1977. Erstdruck in: Berlinische Monatsschrift, Oktober 1786, S. 304 – 330; Permalink: http://www.zeno.org/nid/20009189815 (aufgerufen am 15.6.2023).
Lankau, Ralf (2020). Alternative IT-Infrastruktur für Schule und Unterricht. Wie man digitale Medientechnik zur Emanzipation und Förderung der Autonomie des Menschen einsetzt, statt sich von IT-Systemen und Algorithmen steuern zu lassen. Köln 2020.
Weizenbaum, Jospeh (1978). Die Macht der Computer und die Ohnmacht der Vernunft. Frankfurt a. M.
Zuboff, Shoshana (1988). In the Age of the Smart Machine. The Future of Work and Power, New York: Basics Book.
Zuboff, Shoshana (2018). Zeitalter des Überwachungskapitalismus. Frankfurt.
Teil II: KI und Unterricht – Fragen und Antworten. Erschienen in: Katholische Bildung, Verbandsorgan des Vereins katholischer deutscher Lehrerinnen e.V, (VkdL), Heft 5/6 Mai/Juni 2024, S. 131-140. Von Ralf Lankau