Wettbewerb der Unheilspropheten: Huxley, Orwell und die künstliche Intelligenz

Autor: Oliver Lukitsch, inspiriert von Markus Peschl mit ein paar stolz eingestandenen KI-generierten Einsprengseln.

Heutzutage ist die Verbreitung von Informationen durch eine exponentielle Unkontrollierbarkeit geprägt. Eine treibende Kraft hinter dieser Entwicklung ist das Aufkommen erschwinglicher und benutzer:innenfreundlicher generativer KI-Tools. Was früher eine kostspielige und ressourcenintensive Aufgabe war, z.B. die Erstellung von Nachrichten, die glaubwürdigen Medieninhalten sehr ähnlich sind, ist heute mit Tools wie ChatGPT eine allzu einfache Aufgabe – jedes Kind kann die neuen Tools bedienen. Es dauert nur wenige Minuten, um glaubwürdige Inhalte zu erstellen; glaubwürdig in der Darstellung und Fassade, glaubwürdig, aber nicht unbedingt wahr. Inhalte können von wirklich nützlichen Beiträgen bis hin zu echten Fake News reichen, die auf unterschiedliche Weise als politische Waffe eingesetzt werden können.

Zwei große Denker des 20. Jahrhunderts hätten die drohenden Gefahren dieser bahnbrechenden Technologie anders eingeschätzt: Aldous Huxley und George Orwell. In diesem kurzen Blogeintrag wollen wir die potentiellen Fallstricke im Zeitalter der hyperbeschleunigten Content-Erstellung neu beleuchten und uns fragen, welche dieser Dystopien eine zutreffendere Vorhersage ist. Anstatt eine einfache Antwort zu geben, wollen wir die gegebenen Optionen einer Betrachtung unterziehen und Dir, der mitdenkenden Leser:in, ein Urteil bilden zu lassen.

Eine Warnung vorweg: Dystopisches „spekulatives Design“ kann reale Gefahren vorwegnehmen, aber es liegt an uns, dafür zu sorgen, dass diese nicht eintreten. Es gibt viel, worauf wir gespannt, neugierig und hoffnungsvoll sein können, wenn wir auf unsere KI-durchdrungene Zukunft blicken. Der Artikel ist also nicht als Versuch zu verstehen, sich auf die Seite der Schwarzmaler:innen zu schlagen. Weder naiver Optimismus noch Schwarzmalerei sollten unser Denken bestimmen.

Beginnen wir mit George Orwell

Orwells Dystopien sind bekannt für ihre Hierarchiekritik und ihre Schilderung politischer Gewalt. In seiner Dystopie nimmt eine elitäre politische Klasse ihren Untertan:innen Grundfreiheiten, liberaldemokratischer Gesellschaftsordnungen. Die Unterdrückung passiert dabei weder unbewusst noch suggestiv. Ordnung und Hierarchie basieren auf roher physischer und psychischer Gewalt.

Vor dem Aufkommen leicht zugänglicher generativer KI-Systeme wie ChatGPT oder midjourney galt KI als treibende Kraft des „Überwachungskapitalismus“, ein Begriff, den die Sozialpsychologin Shoshana Zuboff zur Prominenz verholfen hatte. KI spielt im Überwachungskapitalismus eine wichtige Rolle. Die riesigen Datenmengen, die Unternehmen sammeln, werden mit KI-gestützten Algorithmen verarbeitet, um Erkenntnisse, Muster und Vorhersagen über das Verhalten, die Vorlieben und Interessen von Menschen zu gewinnen. Die gewonnenen Erkenntnisse werden dann für personalisierte Werbung und die Gestaltung individueller Nutzer:innenerlebnisse verwendet. KI ermöglicht die Automatisierung und Optimierung von Überwachungspraktiken, so dass Unternehmen aus personenbezogenen Daten in einem noch nie dagewesenen Umfang und mit einer noch nie dagewesenen Effizienz einen Mehrwert generieren können.

Vor allem aber werden KI-Technologien auch eingesetzt, um die Überwachungsmöglichkeiten explizit zu verbessern. Gesichtserkennungssysteme, vorausschauende Algorithmen („predictive policing“) und automatisierte Überwachungssysteme sind Beispiele für KI-Anwendungen, die zu Überwachungszwecken eingesetzt werden. Diese Technologien ermöglichen das kontinuierliche Monitoring und die Analyse des Verhaltens von Einzelpersonen und tragen zur Ausweitung und Intensivierung der Kontrolle in verschiedenen Bereichen bei, z. B. im öffentlichen Raum, am Arbeitsplatz und auf Online-Plattformen.

Der Überwachungskapitalismus leistet einem Orwell-Szenario jedenfalls nachdrücklich Vorschub. KI bietet den Behörden und den Eliten einer sozialen Hierarchie die Möglichkeit, das Verhalten der Untergebenen vorherzusagen. Und die Macht der Vorhersage ist gleichwohl eine Funktion der Kontrolle. Vermeintliche „Verbrechen“ (die von den Behörden als solche willkürlich definiert werden) können vermieden werden, bevor sie geschehen, und durch kontrafaktische Vorhersagen können Bedingungen geschaffen werden, die die Menschen dazu veranlassen, sich so zu verhalten, dass es für die Machthaber von Vorteil ist.

„Das Zeitalter des Überwachungskapitalismus“ Shoshana Zuboffs bahnbrechende Darstellung, wie die Tech-Giganten vor dem Hintergrund einer bedrohten Demokratie eine fast feudalistische Macht akkumulieren, deckt sich eng mit der Orwellschen Vision einer dystopischen Zukunft, die von allgegenwärtiger Überwachung, Kontrolle und der Aushöhlung der individuellen Autonomie geprägt ist.

Das Aufkommen von generativen KI-Systemen setzt jedoch ein großes Fragezeichen über die Gültigkeit Orwells Spekulation.

Was hätte Huxley erwogen?

Huxleys dystopische Fiktion zeigt subtilere Mittel auf, um Menschen zur Unterwerfung zu zwingen. Anstatt Subjekte mit roher Gewalt und Drohung zum Gehorsam zu zwingen, kann ein totalitäres Regime dem Menschen einfach geben, was er will – und zwar so großzügig, dass er von seinen ureigenen, bereits angelegten Wünschen versklavt wird. Untertanen werden auf diese Weise geradenach in der kolportierten Güte der machthabenden Elite ertränkt. Für Huxley ist die wichtigste Form des Trotzes also nicht der Widerstand gegen die Unterdrückung von oben, sondern der Widerstand gegen die eigenen Laster und daher die Selbstbefreiung.

Das Aufkommen der generativen KI und die daraus resultierende Mehrung von Inhalten lässt ein fast schon Huxlersches Szenario plausibler erscheinen. Die schiere Menge an Inhalten, die genau so erstellt werden können, wie wir es für nötig halten, könnte uns in eine Art technologische Unterwerfung treiben; eine Unterwerfung unter KI-Tools, die durch kognitive Faulheit und unsere Neigung, den Weg des geringsten Widerstands zu gehen, akzeleriert wird.

Auf den ersten Blick sieht dieses Szenario unschuldiger aus als das Orwellsche, aber es kann – sich unentdeckt entfaltend – verheerender sein. Angst und materielle Unterdrückung können uns zwar tatsächlich zermürben, aber nur, indem sie den Unterdrückten die Möglichkeit aufzeigen, Widerstand zu leisten, oder genauer gesagt, über Widerstand nachzudenken und gegen seine Konsequenzen zu erwägen: Denn die Ausübung von Kontrolle im Orwell’schen Sinne bedeutet, dass bestimmte Handlungen unzulässig sind. Auf diese Weise hält die Unterdrücker:in ironischerweise die Blaupause für die Rebellion am Leben. Kurzum: Ideen als verboten darzustellen heißt zugleich, selbige Ideen am Leben zu erhalten.

Dass KI-basierte Technologien dazu dienen können, unser Leben gleichsam zu kontrollieren und unser Verhalten vorherzusagen, ist ein gewichtiger Grund für Skepsis und Kritik.

Im Sinne von Huxley sollten wir aber nicht nur sehen, wie uns KI regelrecht unterwerfen kann, sondern auch, wie wir sie immer mehr brauchen und einfordern. Denn allem voran muss eine Tatsache berücksichtigt werden. Generative KI kann uns massiv entlasten. Das macht uns empfänglich für sie. Dass sie uns dabei eine der aufwendigsten kognitiven Leistungen gleichsam abzunehmen scheint, nämlich unser Sprachvermögen, verstärkt den Effekt.

Generative KI (wie die Systeme von OpenAI) ist ein leistungsstarkes linguistisches Werkzeug. Sie verwendet Eingaben in natürlicher Sprache und erzeugt unter anderem auch Ausgaben in natürlicher Sprache. Damit stellt sie eines der heiligsten kognitiven Alleinstellungsmerkmale der Menschheit infrage, nämlich in die Fähigkeit zu lesen und zu schreiben.

KI-Frevel

Wie Alard von Kittlitz kürzlich in der „Zeit“ feststellte, ist der menschliche Geist nicht von Natur aus zum Lesen und Schreiben prädisponiert. Während wir Sprache in der Kindheit extrem schnell erwerben, werden Lesen und Schreiben langsam und mühsam über viele Jahre hinweg erlernt, bis wir ein herzeigbares Niveau erreichen. Das ist anstrengende, harte Arbeit für uns alle, aber sie zahlt sich aus, denn aus ihr erwächst eine kulturelle Praxis, die das Rückgrat menschlicher Hochkultur und Selbsttranszendenz bildet – und ein Grundpfeiler kreativen Denkens ist.

Generative KI kann uns eine große Last abnehmen – sie kann für uns schreiben und damit unsere mühsam erlernte Schreibfähigkeit auslagern. Aber warum sollten wir diese kulturelle Errungenschaft aufgeben und Maschinen für uns texten lassen? Sollte es unser ureigenes Interesse sein und uns motivieren, diese so wichtige Fähigkeit nicht abzutreten?

Die Frage ist keinesfalls rhetorisch. Selbst während ich diese kritische KI-Reflexion schreibe, muss ich hier offen gestehen, mich schuldig zu machen, auf KI-Tools zurückzugreifen. Nachträglich betrachtet haben sie mir bei meiner Arbeit maßgeblich geholfen. Dies führt zum nächsten Punkt: Wir schreiben und lesen in der Regel nicht, um unseren menschlichen Status als Hochkultur zu bewahren. Passenderweise hat die Universität Graz vor kurzem das älteste Buch der Welt wiederentdeckt. In den erhaltenen Seiten ging es um Bier. Das ist ein Sinnbild. Wir schreiben, um grundlegendere Bedürfnisse, primitivere Wünsche zu begütigen. Auch ich werde auch für das Tippen dieser Zeilen bezahlt und KI-Systeme sparen mir dabei Zeit. Die Keilschrift im alten Mesopotamien wurde, notabene und polemisch formuliert, für die Buchführung erfunden.

Die Huxler’sche Aussicht ist also sehr real, dass die Flut der von der KI geschaffenen Inhalte mit offenen Armen empfangen und gleichsam willig produziert wird. Die Befürchtung ist, dass sie uns von unserem tiefsten, aber schwer zu kultivierenden menschlichen Bedürfnis nach Wachstum, unserem Bedürfnis, uns selbst herauszufordern, und unserem Verlangen nach kognitiver Resilienz ablenkt. Die doppelte Konsequenz wäre, dass wir erstens unseren Sinn für die kritische Auseinandersetzung mit Problemstellungen verlieren, mit denen wir uns kreativ oder adaptiv auseinandersetzen könnten, und dass wir zweitens die Fähigkeit einbüßen, uns kritisch gegenüber gesellschaftlichen Machtstrukturen zu verhalten. Das Aufkommen der generativen KI muss im Lichte dieser Möglichkeiten kritisch untersucht werden.

KI-Systeme linearer aber auch generativer Art könnten nicht nur eingesetzt werden, um uns sichtbar zu kontrollieren. Sie könnten auch eingesetzt werden, um kritische Sprachkenntnisse für die Reflexion und unsere Fähigkeit, uns mit Inhalten auseinanderzusetzen, mit denen wir nicht einverstanden sind, als „analoge“ menschliche Fähigkeit überflüssig zu machen. Unser Problem ist also nicht die sichtbare Unterdrückung von Bedürfnissen (wie unser Freiheitsverlagen), sondern dass es sich zunächst gut anfühlen wird, in unsere „Brave New World“ einzutauchen.

Ein letzter Hinweis muss aber abschließend und nachdrücklich platziert werden: KI-Utopien sind genauso wichtig und nützlich, wie ihre dystopischen Geschwister. Dieser Artikel ist nicht als Manifest zu verstehen, das sich auf die Seite der Schwarzmaler:innen schlägt. Aber das Abwägen von Dystopie und Utopie wird unsere Vision von der kommenden Zukunft verdeutlichen – das ebendiese in Sachen KI-Entwicklung und -Einfluss interessant werden könnte, daran besteht mittlerweile kein Zweifel mehr.

Newsletter abonnieren

Erhalten Sie besondere Einblicke in die neuesten Entwicklungen.