Das Geschäft mit KI und ChatGPT oder:
Warum automatisierte Datenverarbeitung keine Intelligenz ist, in Schulen weiter selbst gelernt werden muss – und Anstrengung lohnt.
Von Ralf Lankau
30. November 2023 (SZ) – „Vor einem Jahr schaltete ein US-Unternehmen ein Programm online, das intern als „niedrigschwellige Forschungsvorschau“ eingestuft wurde. Dann brach die Hölle los. (…) Kein digitales Programm hatte sich bis dahin so schnell verbreitet. Kapitalinfusionen von Microsoft und der Zugang zur Infrastruktur des Konzerns ließen Open AI in wenigen Monaten vom kaum bekannten Nerd-Labor zum 86-Milliarden-Dollar-Start-up anschwellen. (…) Fachleute sind zwar wenig beeindruckt. Sie wissen seit Jahren, wozu KI fähig ist, alle Bestandteile von ChatGPT lagen bereit. (…) [Aber KI füllt; rl] für das Silicon Valley gerade eine wichtige Lücke. Sie liefert der Tech-Branche endlich wieder eine Großerzählung, der zufolge die goldene Zukunft von Tech-Unternehmen geschaffen wird.“ (Brühl 2023, S. 18)
Eine Großerzählung über die goldene Zukunft durch Tech-Unternehmen – dieser Einstieg in das Thema Künstliche Intelligenz, Open AI und ChatGPT mag irritieren –, wird doch seit mehr als einem Jahr auf allen Kanälen vor allem über die „Wunderwelt der KI“ berichtet und verkündet, was diese Software alles könne, was sich alles ändern müsse beim Arbeiten, beim Lernen, beim Leben. Wieder einmal wird der Heilige Gral der IT beschworen wie schon beim World Wide Web und der Barlowschen „Unabhängigkeitserklärung des Cyberspace“ von 1996, der aus dem Web ein friedliches globales Dorf und aus den Menschen eine freundliche Gemeinschaft machen würde. Tempi passati. Jetzt also rettet KI die Welt, wenn man Marc Andreessen glauben mag. „Why AI will save the world“ (2023) – so lautet seine Utopie. Man muss damit rechnen, dass auch diese Technik von Propagandisten und Vermarktern mit Partikularinteressen schneller okkupiert wird, als Anwendungen für das Gemeinwohl zur Verfügung stehen. Der Satz von Bill Clinton „It’s the economy, stupid“ gilt hier noch radikaler, weil juristische Regularien den technischen Entwicklungen der IT zwangsläufig hinterherhinken.
Ausgeblendet wird vor allem, dass die heute als Artificial Intelligence (AI, dt. KI) beschriebenen Techniken aus den 1940er-Jahren stammen (Norbert Wiener, Cybernetics, 1948) und der erste Bot „Eliza“ von Joseph Weizenbaum 1966 vorgestellt wurde – übrigens mit dem gleichen Phänomen der vollständigen Überhöhung der Leistungsfähigkeit und Relevanz dieser Datenverarbeitungssysteme und möglicher Einsatzgebiete. Weizenbaum wunderte sich, „welch enorm übertriebene Eigenschaften selbst ein gebildetes Publikum einer Technologie zuschreiben kann oder sogar will, von der es nichts versteht“ (Weizenbaum 1978, S. 20). Daher als erste Prämisse: Das, was heute als „Künstliche Intelligenz“ bezeichnet wird, ist keine Intelligenz. Vielmehr handelt es sich um mathematische Modelle der Mess- und Regelungstechnik in Kombination mit automatisierter Datenverarbeitung.
Es ist allenfalls die Simulation von Intelligenz, indem Maschinen auf der Grundlage von Mustererkennung, Wahrscheinlichkeitsrechnung und Statistik Texte, Grafiken, Videos oder einen Computercode generieren, der so zusammengestellt wird, als könne er von Menschen produziert sein. Das gelingt, weil die menschlichen Zeichensysteme und Sprachen (auch Programmiersprachen) regelbasiert, d.h. logisch und systematisch aufgebaut sind. Regelsysteme kann man mathematisch nachbilden und regelbasiert ablaufen lassen wie ein Uhrwerk. Daher ist entscheidend daran zu erinnern: Maschinen sind nicht intelligent und denken nicht. Maschinen werden für einen bestimmen Zweck konstruiert und sollten ihre Funktion mithilfe der entsprechenden Mechanik und Steuerung erfüllen. Eine Uhr weiß nicht, wie spät es ist, egal, wie exakt sie läuft.
Der 1956 von McCarthy für die Dartmouth-Conference eingeführte Begriff „Artificial Intelligence“ (AI) statt Kybernetik war bereits eine Marketingaktion, um Sponsorengelder einzuwerben. Der Begriff „Künstliche Intelligenz“ (KI) ließ sich nun mal besser vermarkten als die „Steuerung von Menschen wie Maschinen“, was der Grundidee der Kybernetik entspricht. Dieser erste KI-Hype, mit Nebenschauplätzen wie dem (gescheiterten) programmierten Lernen der Behavioristen, verebbte bereits Ende der 1970er-Jahre. Die Versprechen der Steuerbarkeit nichttechnischer Systeme hatten sich nicht erfüllt. Die Folge war der erste KI-Winter: Professuren wurden nicht besetzt, AI und Kybernetik der Allgemeinen Informatik zugeschlagen. Mitte der 1980er-Jahre gab es den zweiten KI-Hype, jetzt als Expertensysteme. Als spezialisierte Anwendungen können diese technischen Systeme in der Tat Hervorragendes leisten. Dazu gehört der ganze Bereich der Automatisierung der industriellen Produktionssteuerung (Industrie 4.0) samt Qualitätsmanagement (QM), die auf einer möglichst umfassenden Datafizierung aller Prozesse (per Kamera, Mikrofon, Sensoren) und der ebenso automatisierten Datenverarbeitung und Steuerung dieser Prozesse beruht.
Automatisieren, digitalisieren und kontrollieren – das ist der systemimmanente Dreiklang der Informationstechnik (Zuboff 1988). Das Problem, das sich im Verlauf der letzten 30 Jahre daraus ergeben hat, ist, dass diese IT-Systeme nicht mehr nur am Arbeitsplatz und für definierte Aufgaben eingesetzt werden, sondern allgegenwärtig sind. Dieser Dreisatz wurde nun auch zur Leitmetapher des sozialen und gesellschaftlichen Lebens erkoren. Immer mehr digitale Endgeräte rücken dem Menschen immer näher an und auf den Leib, das Smartphone in der einen Hand korrespondiert mit der Smartwatch und anderen sogenannten „Wearables“ in der Kleidung. Sie interagieren mit digitalen Endgeräten in unserer Wohnung, mit dem Auto, Eingangstüren, Werbetafeln, Bezahlgeräten … Shoshana Zuboff nennt unsere Gegenwart daher „Zeitalter des Überwachungskapitalismus“ (2018). Dabei sind wir als Konsumenten nicht die Kunden der IT-Monopole, sondern durch den Einsatz unserer digitalen Endgeräte vielmehr Datenspender für die Werbewirtschaft. Aus unseren Verhaltensdaten werden Persönlichkeitsprofile generiert (digitale Zwillinge), an denen man testen kann, wie wir auf Angebote und Ansprache reagieren.
KI-Anwendungen wie ChatGPT – und damit schließt sich der Kreis – übertragen die Steuerungstechnologien der produzierenden Industrie auf Menschen in ihrem Alltag – und entmündigen sie, weil weder die Steuerungs- und Psychotechniken noch die damit verbundenen Interessen transparent sind. Hier kommt Open AI ins Spiel. 2015 gegründet, um eine dem Gemeinwohl dienliche KI zu entwickeln, gab es den ersten Streit 2018, woraufhin Microsoft als Investor eingestiegen ist (49 % Anteile) und Open AI seither auf Kommerz ausrichtet. Hierzu gehört die Publikation von ChatGPT im November 2022 – gegen den ausdrücklichen Rat der Entwickler und Experten – und die Kommerzialisierung bereits der Beta-Versionen (aktuell 20 $ pro Nutzer), um ChatGPT ohne Einschränkung und mit neuen Features nutzen zu können. Der interne Streit bei Open AI (Ethikrichtlinien und Gemeinwohl vs. Kommerz) eskalierte mit der fristlosen Entlassung von Sam Altmann am 18.11.2023. Der CEO habe das Vertrauen des Verwaltungsrats verspielt, hieß es in einer scharf formulierten Mitteilung von Open AI.
Zwei Tage später wurde Altman KI-Chef-Entwickler beim Open AI-Haupteigentümer Microsoft. Wiederum zwei Tage später erfolgte die Rückkehr von Sam Altman zu Open AI, jetzt ohne Kritiker in Verwaltungsrat und Vorstand. Die Investoren hatten interveniert und wollten die Börsenwerte (86 Mrd. US $ für ein Unternehmen mit 770 Mitarbeitern und nur einer Mrd. US $ Jahresumsatz, vor allem für Rechenkapazitäten in der MS Cloud und Mitarbeiter) nicht gefährden. Im Silicon Valley zählt nicht das Produkt, sondern die Rendite-Erwartung. Armin Grunwald, Professor für Technikphilosophie und Technikethik am „Karlsruhe Institut für Technologie“ (KIT) und Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag formuliert als „Gretchenfrage 4.0“ der KI:
„Wer sind die Macher der KI, wer verbreitet die Erzählungen, und wer will hier eigentlich seine Werte und Interessen hinter einem vermeintlichen Technikdeterminismus verstecken? Es ist eine Machtfrage“ (Grunwald 2019, S. 11).
Für Schulen ergeben sich durch KI ganz andere Probleme: Unterricht lässt sich nicht steuern wie eine Produktion. Ziel ist nicht, statistisch wahrscheinliche Ergebnisse an Texten oder Präsentationen zu generieren. Das, was KI formal berechnen kann, ist selbst Gegenstand von Unterricht: das Lesen, Formulieren, Konzipieren – als Lernprozess. Kein Schüler lernt schreiben, indem er einem Bot sagt „Schreib mir …“ und dann liest, was der Bot als Text berechnet hat. Aber über den Hebel der Bequemlichkeit gewöhnen wir schon sehr junge Menschen an den Einsatz von Werkzeugen, die im Grunde als Expertensystem für qualifizierte Berufstätige entwickelt wurden.
Im Gegensatz zu erwachsenen Berufstätigen können Schülerinnen und Schüler nicht beurteilen, ob das Ergebnis relevant ist. Da sie das Vor- und Fachwissen nicht haben (können), erschweren wir ihnen das Lernen bzw. verhindern es, indem wir ihnen unbrauchbare Werkzeuge an die Hand geben. Eine KI weiß ja nichts von dem, was sie rechnet, will nichts und kann nichts – außer Rechnen, sprich: Die KI arbeitet Algorithmen nach vorgegebenen Regeln ab. Aber Lehrer-Blogger, Influencer und andere Digital-Gläubige „lassen sich vor den kommerziellen Karren von Microsoft, Open AI & Co. spannen“, die diese Tools als Geschäftsmodell in Schulen etablieren wollen. Als könnte man etwas lernen, wenn ein Apparat die Aufgabe löst.
Seitdem schauen wir einem Feldversuch zu, bei dem bis zu 100 Millionen Menschen als Beta-Tester die verschiedenen KI-Anwendungen aus dem Consumer-Bereich durch ihre kostenlose Mitarbeit optimieren, bevor Tools wie ChatGPT in den höheren Versionen kostenpflichtig – dann nicht mehr freiwillig – in die Suchmaschine „Bing“ oder „Microsoft Office 365“ eingebunden werden. „Anfixen“ nennt man das. Wer sich erst einmal daran gewohnt hat, dass eine KI Texte schreibt und Präsentationen per Mausklick generiert, wird kaum mehr darauf verzichten wollen. Nur:
So funktioniert Schule nicht, so funktioniert Lernen nicht.
Um etwas zu können, muss ich es selbst tun, wiederholen und üben. Unterricht darf sich nicht darauf beschränken, junge Menschen an die Bildschirme heranzuführen und das Belehren, Beschulen und Prüfen ebenso an eine Software zu delegieren wie das Konzipieren und Gestalten. Das wäre die totale De-Humanisierung von Schule und Unterricht. Schulen müssen sich besinnen und stattdessen das gemeinsame Lehren und Lernen in Gemeinschaft in den Mittelpunkt stellen. Sie sollten den sozialen Raum „Schule“ gegen die Datensammler und ihre Geschäftsinteressen abschotten. Technisch ist das einfach durch das Kappen des Rückkanals für Schülerdaten. Dann kann man ohne Datenverlust mit digitalen Endgeräten arbeiten. Mental ist es schwieriger, weil sich Ministerien, Lehrkräfte und Eltern schon eingefunden haben in die Logik der digitalen Überwachung und Steuerung durch Web, App & Co.
Fehler und Fehlentwicklungen lassen sich korrigieren.
Für KI heißt das: Anstatt auf die vollständig kommerzialisierten Modelle der großen US-Monopole (Alphabet/Google, Amazon/AWS, Microsoft und Facebook/Meta) und ihre zentralisierte Infrastruktur in der Cloud zu setzen, gilt es, dezentrale und spezialisierte Open Source-KIs zu entwickeln, die lokal auf einem Smartphone laufen und bestimmte Aufgaben abdecken können, ohne im Netz zu sein. Solche Tools werden u.a. von Stability AI (München) und Kollegen wie Björn Ommer, Professor an der LMU, entwickelt.
Anders als Sam Altman wollen sie keine Tech-Milliardäre werden, sondern KIs für demokratische Gesellschaften zur Verfügung stellen (Brühl, 2023b, S. 14). Solche Anwendungen kann (und sollte man) bei Bedarf in Schulen einsetzen. Dezentralisierung der Anwendungen und Datenhaltung, Transparenz der Algorithmen und Daten, als „Free and Open Source Software“ (FOSS) offline und lokal lauffähig mit jedem handelsüblichen PC oder Smartphone – das sind schon jetzt praktikable Ansätze für eine KI, die sich gezielt von der Intransparenz und Marktdominanz der großen Monopole absetzt. Man muss „nur“ die Verantwortung für sein eigenes Handeln übernehmen und den allzu bequemen Modus vom „ohnmächtigen Konsumäffchen“ verlassen.
Literatur und Quellen
Andreessen, Marc (2023) Why AI Will Save the World (aufgerufen am 19.6.2023)
Armbruster, A.: Nicht jeder muss ein Informatiker sein, Interview mit Microsoft-Deutschland-Chefin Sabine
Bendiek. In: FAZ vom 01.04.2019; Frankfurt, 2019: (Abruf: 6.4.2019).
Böhme, Gottfried (2023) KI im Unterricht: ChatGPT bricht der Schule das Rückgrat, in: FAZ vom 14.6.2023, S. 9; (aufgerufen am 15.6.2023).
Brühl, Jannis (2023a). Ein Jahr Chat-GPT: Keine Hoffnung auf Luxuskommunismis, in: SZ vom 30.11.2023, S. 18.
Brühl, Jannis (2023b) Wie ein Münchner KI-Professor gegen den Größenwahn der Branche kämpft, in_SZ vom 13.12.2ß23, S. 14.
Grunwald, Armin (2019) KI: Gretchenfrage 4.0, in SZ vom 28.12.2019, S. 11.
Gruschka, Andreas (2011) Verstehen lehren. Ein Plädoyer für guten Unterricht. Stuttgart
Harari, Yuval Noah (2017). Homo Deus, München 2017
Hartong, Sigrid (2019) Learning Analytics und Big Data in der Bildung Zur notwendigen Entwicklung eines datenpolitischen Alternativprogramms Dokumentation zur Veranstaltung; hrsg. GEW Frankfurt.
Hartong, Sigrid (2018): „Wir brauchen Daten, noch mehr Daten, bessere Daten!“ Kritische Überlegungen zur Expansionsdynamik des Bildungsmonitorings; in Pädagogische Korrespondenz, Heft 58, S. 15 – 30.
Kant, Immanuel (1786). Was heißt: sich im Denken orientieren? In: Immanuel Kant: Werke in zwölf Bänden. Band 5, Frankfurt am Main 1977. Erstdruck in: Berlinische Monatsschrift, Oktober 1786, S. 304 – 330; Permalink: http://www.zeno.org/nid/20009189815 (aufgerufen am 15.6.2023).
Lankau, Ralf (2020). Alternative IT-Infrastruktur für Schule und Unterricht. Wie man digitale Medientechnik zur Emanzipation und Förderung der Autonomie des Menschen einsetzt, statt sich von IT-Systemen und Algorithmen steuern zu lassen. Köln 2020.
Weizenbaum, Jospeh (1978). Die Macht der Computer und die Ohnmacht der Vernunft. Frankfurt a. M.
Zuboff, Shoshana (1988). In the Age of the Smart Machine. The Future of Work and Power, New York: Basics Book.
Zuboff, Shoshana (2018). Zeitalter des Überwachungskapitalismus. Frankfurt.
Erschienen in: Katholische Bildung, Verbandsorgan des Vereins katholischer deutscher Lehrerinnen e.V, (VkdL), Heft 5/6 Mai/Juni 2024, S. 127-131.