Warum künstliche Intelligenz uns gefährlich ähnlich werden könnte
Die drängendste ethische Frage der KI ist nicht die Apokalypse. Es ist die Mittelmäßigkeit. Während Feuilletons und Tech-Konferenzen noch über Terminator-Szenarien und allmächtige Superintelligenzen debattieren, liegt das eigentliche Problem näher und ist subtiler: eine schleichende Tendenz zur Standardisierung, die ausgerechnet unsere Fähigkeit zur Innovation bedrohen könnte. Um das zu verstehen, lohnt ein Blick auf Theodor W. Adorno. Was zunächst wie ein akademischer Umweg wirkt, entpuppt sich als bemerkenswert erhellend.
Warum KI auch Marketing ist
Beginnen wir mit einer ernüchternden Einsicht: „Künstliche Intelligenz“ ist auch eine Marketingstrategie. Auf der legendären Dartmouth-Konferenz von 1956 entschied man sich bewusst für diesen Begriff, der größere Erwartungen weckte als die nüchternen Vorgänger „Automated Learning“ oder „Kybernetik“. Das Wort „Intelligenz“ spielt auf der ganzen kulturellen Klaviatur des künstlichen Menschen und verspricht mehr, als die Technologie derzeit einlösen kann.
Die Geschichte der KI ist entsprechend geprägt von metaphorischen Sommern und Wintern, von Euphorie und Ernüchterung. Wer heute die Reaktionen der Tech-CEOs verfolgt, wie sie zunehmend dünnhäutig auf kritische Stimmen reagieren, mag sich fragen: Befinden wir uns bereits im Übergang zum nächsten Winter?
Vergiss den Terminator
Die gute Nachricht zuerst: Von Weltvernichtung und Versklavung der Menschheit sind wir weit entfernt. Diese dystopischen Fantasien mögen in Science-Fiction-Filmen unterhaltsam sein, für die ethische Diskussion sind sie jedoch wenig hilfreich.
Die eigentlichen Herausforderungen betreffen die demokratische Öffentlichkeit, die Organisation gesellschaftlichen Wissens und, paradox formuliert, die Fähigkeit zur Innovation durch eine vermeintliche Zukunftstechnologie.
Schlüsseltechnologien haben immer die politische Selbstorganisation einer Gesellschaft beeinflusst. Die Industrialisierung brachte großen Reichtum und zugleich nie gekannte Verelendung. KI greift nun nicht nur in ökonomische Strukturen ein, sondern unmittelbar in den Wissenshaushalt der Gesellschaft: wie wir Informationen verarbeiten, recherchieren, Erkenntnisse aufbewahren und weitergeben.
Bias ist nicht das eigentliche Problem
Die bekannten Diskussionen um algorithmische Verzerrung sind wichtig: Wenn ein Algorithmus aus historischen Daten lernt, dass häufiger Männer eingestellt wurden, kann er männliche Bewerber bevorzugen. Ebenso relevant ist die Frage nach Wahrheit und Täuschung, wenn künstliche Bilder nur einen Mausklick entfernt sind.
Doch es lohnt sich, einen Schritt weiterzugehen. Die übergreifende Frage lautet: Was bedeutet es für eine Gesellschaft, wenn die Organisation und Fortentwicklung ihres Wissens zunehmend von KI-Verfahren geprägt wird?
Murmelnde Maschinen
Die Antwort führt zu einem Begriff, der zunächst seltsam klingt: „Mumbling Machines„, murmelnde Maschinen.
Generative KI-Systeme funktionieren als probabilistische Modelle, die auf Ähnlichkeitsprinzipien operieren. Sie lernen während der Trainingsphase Muster und erzeugen daraus Antworten, indem sie die wahrscheinlichsten nächsten Elemente aus einer statistischen Verteilung wählen.
Das führt zu einer konservativen Tendenz im wörtlichen Sinne: Die Zukunft wird der Vergangenheit ähneln, vergangene Trends werden sich ähnlich fortsetzen.
Mit Michel Foucault könnte man fragen: Wer spricht eigentlich durch die Maske der KI? Die Antwort: Es spricht, das Murmeln einer Gesellschaft. KI-Tools wiederholen und verfeinern, was eine Mehrheit oder einflussreiche Gruppe zu wissen glaubt.
Jede Antwort einer generativen KI ist „immer schon gemittelt“, immer schon standardisiert. Das Neue im Sinne von etwas, das mehr wäre als eine Variation des Bekannten, wird strukturell ausgeschlossen.
Hier wird Adornos Kulturkritik plötzlich verblüffend aktuell. In seiner Analyse der Kulturindustrie schrieb er:
Es ist, als hätte eine allgegenwärtige Instanz das Material gesichtet und den maßgebenden Katalog der kulturellen Güter aufgestellt, der die lieferbaren Serien bündig aufführt. Die Ideen sind an den Kulturhimmel geschrieben, in dem sie bei Platon schon gezählt, ja Zahlen selbst unvermehrbar und unveränderlich beschlossen waren.
Was Adorno über Massenkultur schrieb, droht nun die gesamte Kultur des Wissens zu erfassen: ein Regime des Mittelwerts, eine Tendenz zur Wiederholung des Immergleichen.
Das Schwellenwertargument
Nun gilt es, die Kirche im Dorf zu lassen. Generische, repetitive und standardisierte Aufgaben von KI erledigen zu lassen, ist völlig in Ordnung. In vielen Kontexten ist eine erwartbare, vorhersehbare Antwort genau das, was wir wollen. Zuverlässigkeit und Vertrauenswürdigkeit sind legitime Anforderungen.
Das Problem beginnt anderswo, nämlich an einem Schwellenwert.
Erhebliche Schwierigkeiten entstehen dann, wenn die Wissensorganisation der Gesellschaft insgesamt zu stark auf KI-Verfahren umgestellt wird. Dann würde sich jede Antwort aus dem ableiten, was erstens bereits bekannt ist, zweitens weit verbreitet ist und drittens für Maschinen gut zugänglich ist.
Die Folge: eine Wiederkehr des Immergleichen auf dem Gebiet der Wissensfortschreibung. Wahrhaft neue Formen des Verstehens und Erlebens würden zunehmend an den Rand gedrängt.
Was ist das Neue?
Hier lohnt ein kritischer Einwand: Gibt es überhaupt das radikal Neue? Leben wir nicht sowieso von Variationen unserer Vergangenheit? In Kunst und Kultur wurde der Remix ausgiebig gefeiert. Und tatsächlich: In Science-Fiction-Geschichten werden für Dinge, die es nicht gibt, Worte verwendet, die wir schon kennen. Wir können uns nichts ausdenken oder beschreiben, was wir nicht irgendwie schon kennen.
Dennoch gibt es Innovationsschübe, die über bloße Rekombination hinausgehen: den Expressionismus, die Relativitätstheorie, Aphex Twin.
Adornos Idee war, dass wahre Kreativität nicht durch regellose Fantasie entsteht. Sagt man jemandem „Sei jetzt mal kreativ, ohne Regeln!“, reproduziert er wahrscheinlich doch das Bekannte. Gute Kunst und Innovation braucht vielmehr einen starken Formalismus, Formengesetze, an denen sie sich abarbeitet, ohne dabei auf ausgetretenen Pfaden zu wandeln.
Die Frage ist: Würden Einstein, Aphex Twin oder der Expressionismus in einer Gesellschaft entstehen können, die ihr Wissen stark über KI organisiert? Die Antwort: wahrscheinlich nicht.
Was bleibt offen
Natürlich bleiben Fragen. Kann KI nicht doch Neues erzeugen, etwa durch Reinforcement Learning oder Zufallselemente? Technisch mag das möglich sein. Ob diese Art von Zufälligkeit die Kreativität meint, von der wir bei Aphex Twin sprechen, ist eine andere Frage. Das Gedankenexperiment mit unendlich vielen Affen an Schreibmaschinen, die irgendwann Hamlet schreiben würden, bleibt bestechend und zweifelhaft zugleich.
Interessant ist auch die Beobachtung, dass neue Musik heute eher außerhalb von Spotify entdeckt wird. Die algorithmische Kuration führt offenbar in eine Sackgasse des Bekannten.
Das Fernsehen, das Internet, nun die KI: Jede Schlüsseltechnologie bringt ihre eigenen Herausforderungen für die demokratische Öffentlichkeit mit sich. In den späten Nullerjahren waren viele Politikwissenschaftler überzeugt, das Internet würde die Demokratie vervollständigen, weil es endlich einen Rückkanal bietet. Wie wir alle leider jeden Tag erfahren müssen, hat sich der Wind um 180 Grad gedreht.
Die ethische Herausforderung der KI liegt weniger in dystopischen Zukunftsszenarien als in einer ganz gegenwärtigen Gefahr: dass eine Gesellschaft, die ihr Wissen zunehmend über murmelnde Maschinen organisiert, ihre Fähigkeit zur Innovation verliert. Nicht mit einem Knall, sondern mit einem Murmeln.
Der Text basiert unter anderem auf Notizen und Impulsen aus der ARIC-Brown-Bag-Session „Hype, Hope und Statistik: GenAI aus ethischer Perspektive“ mit Dr. Jan-Philipp Kruse von der Universität Hamburg.


Schreibe einen Kommentar