Ein Fall für brain.exe

Auch bei KI: Es bleibt die Frage nach den richtigen Fragen

Von Susanne Rohland

Zuerst erschienen in Lunapark21 – zeitschrift zur kritik der globalen ökonomie, Heft 68 (Frühjahr 2026) mit dem spezial Mustererkennung: KI, Technik, Herrschaft.

KI ist aus den Schlagzeilen nicht mehr wegzudenken. Besonders berühmt wurde ChatGPT, und das besonders immer wieder auch fürs Herbeihalluzinieren der Antwortvorschläge, im Zweifel inklusive Quellenangaben. Fest steht: KI ist da und wird bleiben. Nicht klar ist: Was haben wir davon? Und können wir das beeinflussen?

Die eigene Erfahrung kann, je nach wem, so positiv wie negativ ausfallen. Es scheiden sich die Geister. Eine der Schlagzeilen der letzten Wochen: Die Sozialgerichte werden mit ChatGPT-generierten Anträgen überhäuft, die Fehlerquote bis hin zu ausgedachten Gesetzen und Urteilen sind gravierend. Ein Problem, sicher. Aber welches genau? Dass Leute vor Gericht Gerechtigkeit suchen, und zwar mit den Mitteln, die sie greifen können? Genau das sollte das Problem vielleicht nicht sein. Zur selben Wahrheit gehört: Es gibt nicht viele Anwält:innen, die in Sozialrecht machen. Es gibt genau genommen immer weniger.

Am fehlenden Bedarf liegt das nicht. Noch nicht einmal ausschließlich an der fehlenden Zahlungskraft der Kundschaft. Sondern, so erklärt es die kritische Begleitberichterstattung, die Behörden sind es, die das Sozialrecht für Anwält:innen besonders unattraktiv machen, indem sie immer wieder willkürlich abrechenbare Sätze kappen. Den Rest in Sachen Anwalts-Angebot regelt der Markt; der Zugang zu fachlich versierter Hilfe ist inzwischen entsprechend unzugänglich. Der Bedarf geht davon aber nicht weg. Und die Menschen helfen sich mit dem, was sie (meinen zu) haben

Problemfall menschliche Intelligenz?

Auch an anderen Stellen geht es nur manchmal um Spielerei, und öfter darum, unliebsame Dinge schneller aus dem Weg zu haben: ChatGPT für Hausaufgaben, für Uni-Aufgaben, für Routine-Aufgaben. Die einen sind erleichtert, die anderen schlagen die Hände über dem Kopf zusammen. Man kann sich auf die Ergebnisse nicht unbedingt verlassen. Künstliche Intelligenz basiert auf Wahrscheinlichkeiten, die per maschinellem Lernen eintrainiert werden. Und offenbar hat die Künstliche Intelligenz vom Auswendiglernen des Internets gelernt, dass unsereine:r wahrscheinlich lieber irgendwas als Antwort vorgesetzt bekommt als keine oder eine zweifelnde Antwort. Nur ist das dann der Fehler der KI? Oder nicht doch irgendwie unserer?

Im Zusammenhang mit Schwierigkeiten bei der Benutzung von Windows-Rechnern, letztlich aber nicht auf diese beschränkt, hieß es vor Jahren schon: Das Problem sitzt häufig vor dem Computer, sind also wir. Insbesondere in Anbetracht von verbreiteten Hacker-Versuchen, private PCs zu übernehmen, war zum Benutzen von brain.exe aufgerufen. Inzwischen firmiert unter diesem Namen eine Antivirus-Software. Damals war gemeint: Man möge den gesunden Menschenverstand einschalten. Der beste Schutz vor unliebsamen Programmen ist, nicht einfach auf irgendwelche Links zu klicken. Nicht gemeint war: Auf überhaupt keinen Link klicken. Es ging um ein Bewusstsein für die Gefahren von Schadsoftware und eine entsprechende Vorsicht. Die Autorin möchte vorsichtig behaupten: Niemand hat seinen PC abgeschafft, weil der gehackt werden könnte.

Man mag über die Fehler von KI, die Falschmeldungen und Halluzinationen denken, wie man will: Letztlich hebt ChatGPT die Nulllinie. 40 bis 60 Prozent Fehlerquote etwa bei Antworten von ChatGPT werden gegen 100 Prozent richtig gesetzt, nicht gegen real existierende menschliche Leistung.

Das Problem, wenn man ChatGPT mit Dingen beauftragt, die man selbst nicht hinbekommen würde: Es fehlt die Kontrollmöglichkeit. Dass es die braucht, ist der eigentliche Informationsgewinn. Die Kontrollmöglichkeit aber braucht es auch in anderen Zusammenhängen. Wir können Dinge immer besser in dem Bereich, in den Bereichen in Frage stellen, wo wir uns selber auskennen. Je besser wir uns auskennen, desto besser können wir andere Ergebnisse, Aussagen, Behauptungen einschätzen – seien diese nun Produkt menschlicher oder künstlicher Intelligenz. Wir müssen dabei nicht alles wissen, aber eine Vorstellung vom Möglichkeitsrahmen, vom Koordinatensystem haben. Da jede:r von uns irgendwas nahezu 100 Prozent richtig kann – manches mehr, manches weniger hilfreich für die Menschheit als Ganzes oder auch nur das eigene Privatleben – weil wir also alle von irgendwas nahezu 100 Prozent Ahnung haben, fallen uns in genau diesem Bereich die 40 bis 60 Prozent Fehler von ChatGPT besonders auf.

Was wir nicht dagegen halten: Es wird eben auch eine Unterkante von Blödsinn festgelegt. Noch ist es kein geflügeltes Wort, aber: Das würde ja nicht mal ChatGPT behaupten! sollte definitiv zur Abwehr aller Form von absolutem – und nicht nur 60-prozentigem – Blödsinn den Weg in unseren allgemeinen Sprachgebrauch finden.

Die kleinen und die großen Fragen

Möglicherweise liegt die eigentliche Gefahr nicht in erfundenen Quellenangaben und sonstigen Halluzinationen künstlich-intelligenter Chatpartner. Seit Anfang März kann man eine Erklärung unterzeichnen, die sich für eine Beschränkung und radikal menschenfreundliche Ausrichtung von KI einsetzt: die Pro-Human Declaration.* Die Erklärung stammt aus den USA. Die Begleitberichterstattung betont, dass wohl was dran sein muss, wenn prominente Demokrat:innen genauso unterzeichnen wie eingefleischte Republikaner. Max Tegmark, Physiker am MIT und KI-Forscher, der an der Initiative mitgewirkt hat, sagte dazu: »Worin sich beide Seiten einig sind, ist, dass sie alle Menschen sind. Wenn es auf die Frage zuläuft, ob wir eine Zukunft für Menschen oder eine Zukunft für Maschinen haben wollen, sind sie natürlich alle auf derselben Seite.« (Übersetzung der Autorin)

Fünf Prinzipien sind in der Erklärung festgelegt, die KI im Zaum halten sollen: dass der Mensch weiter die Kontrolle haben muss, dass Machtkonzentration zu verhindern ist, dass menschliche Beziehungen und menschliche Entwicklung nicht behindert werden sollen, dass KI keine Persönlichkeitsrechte bekommen darf und dazu da ist, Menschen zu empowern, nicht klein zu halten, und schließlich die klare Verantwortung und Rechenschaftspflicht für KI-Unternehmen.

Alle Punkte sind mit weiteren Details versehen. Interessant zum Beispiel die Forderung nach dem Einsatz vorhergehender Sicherheitstests – mit Medikamenten, die man auf die Menschheit loslässt, macht man das ja auch. Insbesondere sollen eine erhöhte Selbstmordgefährdung, eine Verschlechterung von psychischen Erkrankungen, eine Eskalation in Krisensituationen und andere bekannte Unbilden ausgeschlossen werden. Manche Punkte, namentlich die Frage nach Persönlichkeitsrechten für KI, sind nur innerhalb des US-amerikanischen Zusammenhangs nachvollziehbar: Hier haben Firmen Persönlichkeitsrechte und damit verbunden z.B. auch die Erlaubnis zu Wahlkampfspenden und selbstverständlich das Recht auf Meinungsfreiheit.

Zusammen mit der Erklärung wurden Umfrageergebnisse veröffentlicht, nach denen die Amerikaner:innen mit überwiegender Mehrheit eine KI wünschen, die dem Menschen dient und nicht umgekehrt. Sie wollen Sorgfalt und Rechenschaft bei Entwicklung und Einsatz solcher Technologien. Und sie wollen echte Regeln, keine Selbstregulierung der Tech-Unternehmen. Die US-Regierung dagegen will aktuell nicht einmal die Selbst-Zurückhaltung der Firmen hinnehmen.

Risiko in der Lieferkette

Es sind nicht nur die KI-Firmen selbst, die das Problem darstellen. Da ist Anthropic, der große Konkurrent von OpenAI, dessen Chat-Agent Claude prozentual weniger Fehler als das berühmtere ChatGPT produziert, dafür aber eine Kooperation mit dem nicht gerade unverdächtigen Palantir, der Überwachungssoftware hat. Über die Palantir-Koop gab es auch eine Zusammenarbeit mit dem Pentagon. Dieses wiederum hat ein nicht unerhebliches Paket von 200 Milliarden Dollar für KI-Projekte aufgelegt. Hier kommen auch alle anderen Player zum Zuge, neben OpenAI auch Google und Amazon. Anthropic sind bzw. waren aber die einzigen, die in klassifizierten, also geheimen Projekten eingebunden waren. Dann kam Venezuela, als die USA unter dem Deckmantel einer Demokratie-Intervention den Präsidenten eines anderen Landes gekidnappt haben.

Der Berichterstattung nach im Anschluss an diese Aktion wollte das Pentagon eine weitergehende Verabredung mit Anthropic: Sie wollten deren Technologie einsetzen dürfen »for any lawful purpose« – für alles, das nicht ausdrücklich gegen das Gesetz ist. Anthropic wollte eine andere Sprachregelung. Autonome Waffensysteme oder Massenüberwachung von Amerikaner:innen sollten nicht mit ihrer Technologie stattfinden.

Das Pentagon konterte, es sei nicht Aufgabe privater Firmen zu kontrollieren, wie das Militär operiert. Eine Patt-Situation, könnte man meinen. Im Pentagon meinte man das nicht. Es wurde ein Ultimatum gesetzt, Anthropic ließ das verstreichen. OpenAI nahm ihren Platz ein. Und Anthropic bekamen den Status »supply chain risk« – Risiko in der Lieferkette. Dieser Status bedeutet nicht nur das Ende der Zusammenarbeit mit dem Pentagon. Auch alle Pentagon-Zulieferer, mithin Palantir, dürfen die Technologien von Anthropic nicht mehr nutzen und auch sonst in keiner Geschäftsbeziehung mit dem geschassten Unternehmen stehen. Normalerweise wird der Status vergeben für Firmen, denen Verbindungen zu Hauptfeind China nachgesagt werden. Darum ging es hier nicht.

Das Pentagon hätte die Verträge mit Anthropic einfach kündigen oder auslaufen lassen können. Das war scheinbar nicht genug. »Keine Geschäfte« verbietet zum Beispiel auch Google und Amazon – so sie weiter fürs Pentagon arbeiten wollen – ihre Investitionen in Anthropic, die dem Vernehmen nach erheblich ausfallen. Das Pentagon scheint eine Art Marktbereinigung anzustreben: Wer auch nur in Grenzen verantwortungsvolle KI betreiben will, hat keinen Platz.
Das Pentagon will sich ein halbes Jahr Zeit nehmen, den Ausstieg aus Anthropic zu organisieren. Anthropic will gegen die USA vor Gericht gehen; es werden ihnen keine schlechten Chancen ausgerechnet.

Falsch und richtig

Vielleicht wäre es also zu früh für die »ich nutze das trotzdem«-Rebellinnen unter uns, dass wir jetzt einfach alle von ChatGPT zu Claude zu wechseln (soweit noch nicht geschehen). Dies auch aus anderem Grund: OpenAI hat nicht einfach zu allen Bedingungen den Platz von Anthropic übernommen. Sie sollen das Pentagon vorm Lieferkettenproblem-Label gewarnt haben: Das hätte wohl Signalwirkung in die ganze Tech-Branche und Einfluss auf ihre Bereitschaft zu Kooperationen mit dem Staat. Auch OpenAI will die eigenen Systeme nicht für autonome Waffensysteme oder Massenüberwachung von Amerikaner:innen genutzt wissen.

Und was Anthropic nicht gelang: OpenAI hat im Nachgang immerhin eine Sprachregelung in den Vertrag drücken können, die die Verwendung der Technologie für absichtliche Massenüberwachung von US-Amerikaner:innen ausschließt. Hat Anthropic also ein bisschen gewonnen, um den Preis, das es verloren hat? Höchsten fast: Man könnte immer noch Ausländer überwachen, dabei massenhaft Daten über Staatsbürger:innen sammeln, und diese auswerten. Und selbst wenn das Pentagon offen vertragsbrüchig würde: Besonders viele Möglichkeiten zur Durchsetzung der Einhaltung der Verträge hätte OpenAI nicht.

Dean Ball, Senior Fellow bei der Stiftung für Amerikanische Innovation (Foundation for American Innovation) betonte: »Es ging hier nicht nur um irgendeinen Disput über einen Vertrag. Das erste Mal haben wir als Land über die Kontrolle von KI-Systemen diskutiert. Wo sollen die Grenzen liegen? Und wer soll entscheiden dürfen?« (Übersetzung der Autorin)

Eine Verabredung über die Grenzen menschengemachter Nutzung ist nötig. Anthropics Claude ist beim Kidnapping des venezuelanischen Präsidenten dabei gewesen. Und es hat die Vorschläge für die ersten 1000 Ziele im jüngsten Krieg gegen den Iran gemacht. Die toten Schulmädchen gingen wohl auf einen Datenfehler zurück: Das Gebäude wurde seit 2013 nicht mehr von den Revolutionsgarden genutzt. Bei den Daten, auf deren Grundlage der bisherige Oberste Führer Khamenei getötet wurde, lagen keine Fehler vor. Claude macht das nicht allein. Aber es macht die Big-Data-Auswertung der von Palantir gestellten Software zugänglich.

Von hier aus gesehen ist jedenfalls nicht nur die Frage, was KI alles falsch macht. Auch was KI richtig macht, muss die Welt nicht zu einem besseren Ort machen.
Vom Problem des mehr oder weniger sinnvollen Privatgebrauchs von KI-Technologien sind diese Fragen von Leben und Tod sehr weit weg. Worum es uns imm Kleinen gehen sollte, fasst vielleicht ein Internet-Zitat zusammen, das ungefähr so lautete: »Ich will KI, die für mich die Wäsche macht und den Haushalt schmeißt, damit ich schreiben und Kunst machen kann. Nicht KI, die für mich schreibt und Kunst macht, während ich den Haushalt schmeißen soll« – das dann gern mit möglichst geringer Fehlerquote.

Anmerkung:
*The Pro-Human AI Declaration


Der Artikel erschien zuerst in Lunapark21 – zeitschrift zur kritik der globalen ökonomie, Heft 68 (Frühjahr 2026) mit dem spezial Mustererkennung: KI, Technik, Herrschaft.