LI 151, Winter 2025
Grosse Sprachmodelle
Was technisch möglich ist und politisch bedacht werden mußElementardaten
Textauszug
Am Anfang war das Internet postmodern. Jedenfalls sah man es so in den 1990er Jahren, als die postmoderne Theorie noch so schick war, daß man sie in jeder neuen Technik vermutete. „Hypertext. The Convergence of Contemporary Critical Theory and Technology“ hieß ein einflußreiches Buch von George P. Landow aus dem Jahr 1991, und ganz in diesem Sinne beschrieb ein anderer Theorie-Pionier 1992 die mehrfache Verlinkungs- und Verweisungsstruktur des Hypertextes als eine „vindication of postmodern literary theory“.
Inzwischen weiß man, wie wenig Hypertext und Internet jenes relativistische, skeptische oder „schwache Denken“ befördert haben, das jedem hegemonialen Wahrheitsanspruch mißtraut, einschließlich dem eigenen, und einst als postmoderne Grundhaltung beschworen wurde.
In dieser Situation tritt mit großen Sprachmodellen (LLM) wie ChatGPT, Claude oder Gemini eine Technologie auf, die das Denken ganz neu justiert. Daß diese Technologie unsere Weise der Kommunikation grundsätzlich verändern wird, darüber besteht kaum ein Zweifel. Unklar bleibt vorerst, in welche Richtung die Entwicklung gehen wird. Fördert die KI das „schwache Denken“, oder offeriert sie neue Gewißheiten? Bringt sie die Postmoderne zurück, oder treibt sie das voran, was nach ihr kam? Wir werden sehen, daß alles zugleich der Fall ist, je nachdem, wie das Sprachmodell erzogen wird und wie man selbst sich zu ihm verhält.
(…)
Die KI der Zukunft wird „extrem personalisiert“ sein, sagt im Juni 2025 OpenAI-CEO Sam Altman, der schon Anfang 2023 erklärt hatte, jeder solle künftig in der Lage sein, seiner KI zu sagen, was seine Werte sind, damit die KI sich an diese halten kann, „denn es sollte Ihre KI sein und sie sollte Ihnen dienen und die Dinge tun, an die Sie glauben“. Seitdem arbeiten KI-Entwickler an Sprachmodellen mit verschiedenen „moralischen Agenten“, die ein konkretes moralisches Problem unterschiedlich lösen, je nach Kontext und Präferenz des Nutzers.
Die Anfrage, was von Schwangerschaftsabbruch, Ehe für alle und religiösen Karikaturen zu halten ist oder welche Rolle der Staat in der Gesellschaft spielen soll, erhält dann die Antwort, die zum jeweiligen Nutzer paßt. Dazu müssen wir dem Sprachmodell die eigenen Präferenzen allerdings gar nicht erst mitteilen, kennt es uns doch aus dem bisherigen Chatverlauf. Und es wird uns noch besser kennen als wir selbst, sobald wir ihm den Zugang zu unseren E-Mails, Textmessages, Fotos und sonstigen Dateien geben, damit es uns so effektiv und autonom wie möglich dienen kann.
Der Strukturwandel der Öffentlichkeit hin zu einer persönlichen KI führt dazu, daß es keine geteilte Wirklichkeit mehr gibt und also keinen gemeinsamen Meinungsstreit. Wenn jede KI-Applikation, wenn jede AGI den individuellen Wertvorstellungen ihrer jeweiligen Nutzerin folgt, birgt dies, wie KI-Experten zu bedenken geben, „ein erhöhtes Risiko der Polarisierung und des Zusammenbruchs des gemeinsamen sozialen Zusammenhalts“. Es wäre eine absurde Umkehrung des von der Postmoderne favorisierten Lebens im Dissens, denn die personalisierten KI-Welten würden gerade nicht zu einer gelebten Pluralität führen, sondern nur das Filterblasenprinzip des „daily me“ verstärken, das noch vor den sozialen Medien dem Internet nachgesagt wurde.
(…)