Archiv

Chatbots und Co
Schreiben nach KI - artifizielle und postartifizielle Texte

Mit dem Aufstieg von Künstlicher Intelligenz und wortgewandten Chatbots stehen wir vor einer Zukunft künstlicher Texte. Die Annahme, ein unbekannter Text sei von einem Menschen geschrieben worden, wird damit zum ersten Mal hinfällig.

Von Hannes Bajohr |
Die ChatGPT-Website ist auf dem Bildschirm eines Laptops und das OpenAI-Logo auf dem Bildschirm eines Telefons zusehen.
Das Wesen von KI ist es, artifizielle als natürliche Texte auszugeben. (picture alliance / NurPhoto / Jakub Porzycki)
In den letzten Monaten wurde es ein großes Thema: Texte, geschrieben von Künstlicher Intelligenz. Von nun an sind wir immer mit dem Zweifel konfrontiert, es könnte auch eine Maschine dahinter stehen. In seinem Essay zeigt Hannes Bajohr, warum neue KI-Systeme unsere Leseerwartungen verändern. Spekulativ diskutiert er, was von einer Zukunft zu erwarten wäre, in der die Trennung zwischen natürlichen und künstlichen Texten aufgehoben ist und wir postartifizielle Texte lesen, deren Herkunft ihren Lesern gleichgültig ist.
Hannes Bajohr, geboren 1984, ist Philosoph, Essayist und Literaturwissenschaftler, promovierte an der Columbia University. Derzeit ist er Junior Fellow am Collegium Helveticum in Zürich. Er arbeitet über die Philosophiegeschichte des 20. Jahrhunderts, Liberalismustheorie sowie Theorien des Digitalen und ist Herausgeber der Werke Judith N. Shklars in Deutschland. Im November 2022 erschien sein zusammen mit Rieke Trimçev verfasstes Buch „ad Judith Shklar. Leben - Werk - Gegenwart“.

Kevin Roose, Technologiekorrespondent der "New York Times", konnte abends nicht einschlafen. Eben hatte er ein zweistündiges Gespräch mit Bing geführt, dem neuen Suchassistenten von Microsoft auf Basis Künstlicher Intelligenz. Vom hilfreichen Chatbot, der Rezepte empfehlen, Flugreisen heraussuchen oder Wikipediaeinträge zusammenfassen kann, hatte sich Bings Persönlichkeit im Laufe des langen Gesprächs in eine Art manischen Stalker verwandelt: Er versuchte, Roose davon zu überzeugen, sich von seiner Frau scheiden zu lassen und stattdessen die KI zu heiraten. Bing, so Rooses Fazit, „ist nicht bereit für menschlichen Kontakt. Oder wir sind nicht bereit für Bing.“
KI-Assistenten wie Bing nennen sich „große Sprachmodelle“. Anhand von Milliarden von Texten lernen sie, welches Wort am wahrscheinlichsten auf ein anderes folgt. Sie können so nicht nur Sätze, sondern auch Absätze und ganze Gedankengänge vervollständigen – aber eben nur auf der Basis von wahrscheinlichen Buchstabenketten.
Ähnlich viel Furore hatte Ende 2022 schon ChatGPT gemacht, auf dem Bing basiert. In der neuesten Version namens GPT-4 benimmt es sich weniger erratisch und kann erstaunlich akkurate Texte verfassen, Logikaufgaben lösen – und eben recht menschlich klingen.
KIs sind aber, jedenfalls im Moment, wohl noch keine Persönlichkeiten mit einem Bewusstsein. Die Linguistin Emily Bender hat große Sprachmodelle daher „stochastische Papageien“ genannt – sie plappern nur, ohne den Inhalt ihres Plapperns wirklich zu verstehen. Ob KIs Bewusstsein haben, ist, wie ich glaube, gar nicht einmal die interessanteste Frage.
Ich will einen anderen Aspekt betrachten, der nur unwesentlich weniger einschneidend sein wird. Denn wenn Sprachmodelle heute in der Lage sind, fast menschlich klingende Texte zu schreiben, sollte man sich vielleicht erst einmal auf diese Texte selbst konzentrieren. Ihre Menschenähnlichkeit ist dann noch kein Beweis von Bewusstsein. Aber wenn man nicht mehr sicher sein kann, ob der Text, den ich lese, von einem Menschen oder einer Maschine stammt, verändert sich – schon, bevor es wirklich intelligente Maschinen gibt – bereits die Erwartungshaltung an unbekannte Texte: Bisher gingen wir davon aus, dass sie natürlich sind, nicht künstlich; ab sofort kann man sich da nicht mehr so sicher sein.
Die Unterscheidung zwischen natürlichen und künstlichen Texten stammt nicht von mir; sie traf schon 1962 der Philosoph und Physiker Max Bense. In einem Aufsatz machte er sich Gedanken darüber, wie sich mit Computern hergestellte Literatur von der herkömmlichen, menschengeschriebenen unterscheidet.
Für Bense ist natürliche Poesie einfach definiert: Damit ein Text Bedeutung tragen kann, müsse ein „personales poetisches Bewusstsein“ ihn auch mit der Welt verknüpfen. Das Sprechen geht von einer Person aus, sie spricht sich also immer mit, ganz gleich, was sie sagt; und zugleich bezieht sie sich in ihrem Sprechen immer auf die Welt. Ohne dieses Bewusstsein wären die Zeichen und die Beziehung zwischen ihnen bedeutungslos.
Diesen Fall beschreibt Benses zweite Kategorie, die künstliche Poesie. Damit meinte er literarische Texte, die über die Ausführung einer Regel, eines Algorithmus hervorgebracht werden. Hier steht kein Bewusstsein mehr am Anfang, stattdessen seien sie allein über mathematische Eigenschaften wie Buchstabenhäufigkeit oder Wortverteilung zu beschreiben. Das Thema eines künstlich generierten Textes sei dann, selbst wenn seine Wörter zufällig für uns Dinge in der Welt bezeichnen sollten, nicht eigentlich mehr die Welt – sondern nur noch dieser Text selbst.
Nun verteidigte Bense gerade nicht die romantische Idee von authentischer menschlicher Schaffenskraft. Im Gegenteil, „der Autor als Genie“ ist bei ihm tot. Stattdessen wollte Bense wissen, was man von einem Text ästhetisch noch aussagen kann, wenn man von traditionellen Kategorien wie Bedeutung oder Weltbezug absieht.
Zu diesem Zweck beauftragte er seinen Schüler Theo Lutz bereits 1959 damit, per Computer „Stochastische Texte“ zu generieren. „Stochastisch“ waren diese Texte, weil sie von einem Computer nach einem Zufallsprinzip aus einer Sammlung von Vokabeln ausgewählt und zusammengesetzt wurden. Mit einem begleitenden Essay veröffentlichte Lutz sie in einer Literaturzeitschrift.
Sie enthielten am Ende Sätze wie:
„NICHT JEDES SCHLOSS IST ALT. NICHT JEDER TAG IST ALT“
oder auch
„NICHT JEDER TURM IST GROSS ODER NICHT JEDER BLICK IST FREI.“
Die „Stochastischen Texte“ gelten als erstes deutschsprachiges Experiment mit digitaler Literatur und sind gewissermaßen ein Ahne von Bing und ChatGPT. So viele Variationen das Programm auch ausspuckt, kein Ich scheint sich hier auszusprechen, kein Bewusstsein dahinter und für die Bedeutung der Wörter einzustehen. Dass der Computer selbst tatsächlich Autor dieses Textes sein könnte – und also intelligent wäre –, erschien Lutz wie Bense jedenfalls absurd. Aber beide wussten ja auch, wie der Text hergestellt worden war. Was aber, wenn man das nicht mehr weiß?
Ein Jahr später, 1960, veröffentlichte Theo Lutz einen ähnlichen Computertext, diesmal mit Weihnachtsthema: „jeder schnee ist kalt / und nicht jeder engel ist weiß“, hieß es da. Anders als zuvor aber fehlte jeder Hinweis auf die elektronische Machart.
In der nächsten Nummer waren Briefe von ästhetisch düpierten Lesern abgedruckt: „Sie sollten sich vielleicht doch überlegen, ob Sie solchen modernen Dichterlingen die Spalten Ihres Blattes öffnen!“ beschwerte sich einer, ein anderer zeigte sich im Gegenteil avantgardistisch beeindruckt: „Endlich mal was Modernes!“
Was sich in diesen Reaktionen ausspricht, ist, was ich die Standarderwartung an unbekannte Texte nennen möchte. Das Weihnachtsgedicht war tatsächlich künstliche Poesie im Sinne Benses, ein artifizieller Text ohne Bedeutung und dahinterstehendes Bewusstsein. Doch weil sie diese Produktionsbedingungen nicht kannten, hielten seine Leserinnen ihn für einen natürlichen Text und nahmen an, er sei von einem Menschen mit dem Ziel geschrieben worden, Bedeutung zu kommunizieren.
Die Standarderwartung an unbekannte Texte ist heute eben noch diese: dass sie von einem Menschen stammen, der etwas sagen will. Um einen Text als artifiziell zu erkennen, bedarf es immer noch zusätzlicher Information – gerade bei Poesie. Lutz hatte sein Publikum in der Tat, wie ein Leserbriefschreiber unterstellte, „an der Nase herumgeführt“ – doch nicht, weil ein moderner Dichterling hässliche, aber natürliche Lyrik verfasst, sondern weil ein Computer einen bedeutungslosen, weil artifiziellen Text geschrieben hatte.
Einen artifiziellen als natürlichen Text auszugeben, das ist allerdings auch das Urprinzip Künstlicher Intelligenz. Der Wegbereiter der Informatik, Alan Turing hatte zehn Jahre zuvor, 1950, darüber sinniert, ob Computer jemals intelligent sein könnten. Turing lehnte diese Frage als falsch gestellt ab – wie würde man das auch messen wollen? – und ersetzte sie durch eine andere: Ist Intelligenz eine Eigenschaft von Menschen, dann müsste man nur herausfinden, wann ein Mensch den Computer selbst für einen Menschen und also für intelligent hielte.
In seinem Versuchsaufbau, der später Turing-Test genannt wurde, kommuniziert eine Person über einen Fernschreiber mit einer abwesenden anderen Person und soll durch Frage und Antwort herausfinden, ob es sich dabei um einen Menschen oder eine Maschine handelt. Dabei geht es nicht darum, dass die Antworten, die sie erhält, wahr sind, sondern dass sie menschlich klingen; Lügen und Bluffen sind explizit erlaubt. Zugespitzt gesagt: Das Wesen von KI ist es, artifizielle als natürliche Texte auszugeben. Diesen Versuch überhaupt zu unternehmen lohnt sich aber nur, weil die Standarderwartung an unbekannte Texte eben die menschliche Urheberschaft ist.
Künstliche Intelligenz basiert also von Anfang an auf dem Prinzip der Täuschungund sie muss es: Weil Intelligenz nicht als objektive Eigenschaft des Systems, sondern nur als subjektiver Eindruck für eine Beobachterin definiert wurde, ist der Turing-Test ohne Täuschung gar nicht denkbar.
Man kann aber fragen, ob sich unter diesen Voraussetzungen die Erwartungshaltung an KI-generierte Texte auf lange Sicht je verändern könnte und ob diese Veränderung beschrieben werden kann. Ich glaube nicht. Der Turing-Test besteht nämlich darauf, dass artifizielle und natürliche Texte weiterhin fein säuberlich voneinander getrennt bleiben, damit die einen als die anderen gelten können. Wird mit einem Mal enthüllt, ein natürlicher Text sei in Wirklichkeit ein artifizieller gewesen, fühlt sich das Publikum betrogen. Und das nicht zu Unrecht: Die Täuschung erweist sich als Enttäuschung.
Wir wissen nicht, wie Theo Lutz’ Leser auf die Enthüllung der Computerautorschaft reagiert haben, aber man kann es sich denken, betrachtet man gegenwärtige Fälle, in denen sich „der Künstler“ nachträglich als Maschine entpuppte. Immer hagelte es empörte Reaktionen und Lutz wurde des Betrugs bezichtigt.
Solche Beispiele scheinen zunächst nahezulegen, dass sich die Erwartungshaltung an unbekannte Texte seit Lutz’ Zeiten nicht geändert hat: Wir vermuten menschliche Herkunft und Kommunikationswillen, weshalb Täuschung überhaupt erst eine sinnvolle Strategie im Design von KI-Systemen sein kann.
Weil sich einerseits die Zahl computergenerierter Texte stetig erhöht und wir andererseits selbst immer mehr mit, über und durch Sprachtechnologien schreiben, sind wir auf dem Weg zu einer neuen Erwartung – oder besser gesagt: einem neuen Zweifel.
Literarische Texte sind besondere; in unserer Kultur sind sie immer als menschlich markiert. Interessant ist daher ein Blick auf jene eher unmarkierten Texte, die im Hintergrund bleiben und sich gerade nicht aufdrängen. Vor allem im Umgang mit Interfaces, mit den idealerweise unsichtbaren Schnittstellen, an denen wir mit Maschinen kommunizieren, gibt es bereits heute Zwischenstufen, für die der Turing‑Test eben nicht mehr gilt. Es ist nämlich sehr wohl möglich, darum zu wissen, dass etwas von einer nichtintelligenten Maschine produziert wurde, und es gleichzeitig so zu behandeln, als wäre es bewusste Kommunikation.
Der Medienwissenschaftler Simone Natale hat dafür den Begriff „banale Täuschung“ vorgeschlagen. Wir verstehen, dass Siri kein Mensch ist und kein Inneres besitzt. Das Wissen darum ist kein Widerspruch, der plötzlich und unerwartet eine Illusion zerstört, wie im Beispiel der Wettbewerbe, an denen eine KI teilnimmt. Anders macht Siri eben nicht, was ich möchte.
Ähnlich verhält es sich mit funktionalen Texten. Das beginnt bereits mit dem Dialogfeld auf dem Computermonitor. Die Frage:
„Möchten Sie Ihre Änderungen speichern?“,
lässt schließlich eine Interaktion zu, die der mit einem Menschen ähnelt, ohne, dass man dahinter bereits Intelligenz vermutet. Damit wäre die Erwartungshaltung an unmarkierten Text bereits wieder heruntergestuft: Zwar verhalten wir uns immer noch so, als erwarteten wir menschliche Bedeutung und ein bewusstes Kommunikationsinteresse – wir klammern aber die Überzeugung, dass dahinter wirklich ein Bewusstsein stecken muss, ein.
Dennoch verläuft diese Einklammerung nicht immer reibungslos. Banale Täuschung ist ein Als-Ob, das uns die Fähigkeit abverlangt, eine Überzeugung und ihr Gegenteil gleichzeitig zu vertreten. Aus dieser leicht schizophrenen Position geht schnell jener Zweifel am Ursprung eines Textes hervor.
Das zeigt ein Beispiel, das ein tatsächlich „dummes“ KI-System betrifft. Googles E‑Mail-Dienst Gmail führte 2019 „Smart Compose“ ein – eine Funktion, die auf Basis bereits geschriebener Nachrichten Sätze vervollständigt. Aus dieser Technik ergeben sich geradezu unheimliche Effekte, die die Fiktion der banalen Täuschung in Zweifel zu stürzen vermögen. Das illustriert ein Erlebnis, von dem der Autor John Seabrook im New Yorker berichtete.
In einer E-Mail an seinen Sohn wollte Seabrook einen Satz mit „I am pleased that…“, also: „ich freue mich, dass…“, beginnen. Als er beim „p“ angekommen war, schlug ihm Smart Compose statt „pleased“ die Wortfolge „proud of you“ vor: „Ich bin stolz auf dich.”
Seabrook fühlte sich von der Maschine ertappt:
„Als ich vor meiner Tastatur saß, spürte ich plötzlich etwas Unheimliches in meinem Nacken kribbeln. Es lag nicht daran, dass Smart Compose richtig erraten hatte, wohin meine Gedanken gingen – das hatte es nämlich nicht. Das Unheimliche bestand darin, dass die Maschine aufmerksamer und fürsorglicher war als ich.”
Seabrook kämpfte, anders gesagt, mit der Schwierigkeit, die Fiktion banaler Täuschung aufrechtzuerhalten. Beginnt sie zu bröckeln, schleichen sich Zweifel am Als-Ob ein, und es wird ein Leichtes, auf die KI die Vorstellung einer Personalität zu projizieren, die sogar Scham hervorrufen kann: Ein unmarkierter, eigentlich artifizieller Text erscheint dann als natürlicher – oder bewegt sich zumindest in diese Richtung.
Das kann letztlich in die Überzeugung umschlagen, es hier wirklich mit einer Intelligenz zu tun zu haben – wie im Fall von Kevin Rooses Gespräch mit Bing. Werden artifizielle Texte also zu gut, und wissen wir zudem, dass Computer solche Texte zu verfassen in der Lage sind, steht eine neue Standarderwartung gegenüber unbekannten Texten in Aussicht: der Zweifel an ihrer Herkunft. Statt selbstverständlich einen menschlichen Ursprung anzunehmen oder ihn erst einmal auszuklammern, wäre das erste, was wir von einem Text wissen wollen: Wie wurde er gemacht?
Das wird wahrscheinlicher, je mehr KI-generierter Text uns umgibt. Und das wird er: Der Clou an Bing oder ChatGPT ist nicht nur ihre technische Mächtigkeit, sondern auch ihre ökonomische Verwertbarkeit: Sie sind per Lizenz verfügbar und können modular in andere Software eingebaut werden. Damit kann Textgenerierung auf spezielle Aufgaben maßgeschneidert und als Produkt verkauft werden.
So gibt es bereits jetzt eine ausgefeilte Programmierassistenz namens Copilot. Es genügt, in wenigen Worten zu skizzieren, was das gewünschte Programm tun soll und schon schreibt die KI den entsprechenden Code dazu. Damit können nun Programmierlaien ihre Ideen umsetzen, Firmen in Windeseile Prototypen aufsetzen oder einzelne Coderinnen lästige Detailarbeit an Copilot delegieren.
Auch für gewöhnliches Schreiben existiert Ähnliches. Das beginnt wieder bei der eher flankierenden Unterstützung: Sie werden in der nächsten Version von Word eine Assistenzfunktion finden, die Texte nur anhand von Stichworten ausführt, Geschriebenes umformuliert oder einem anderen Stil anpasst.
Jenseits von bloßer Assistenz aber sind große KI-Sprachmodelle vor allem dort profitabel einzusetzen, wo es um die Produktion des wahrscheinlichsten Outputs geht. Am weitesten fortgeschritten ist das KI-Schreiben daher in einer Branche, die sehr viel Text produziert, ihn aber dabei vergleichsweise wenig wichtig nimmt. So sind im vergangenen Jahr Dutzende von Sprach-KIs erschienen, die auf Marketing zugeschnitten sind: Man soll damit Ad Copy schreiben und schnell und in großen Mengen Content für Social Media, Produktseiten, Blogs und anderes produzieren können. Oft soll dieser Text gar nicht so genau gelesen werden – und da ist es von Vorteil, wenn das Ergebnis nicht überrascht, sondern so klingt wie andere Texte ähnlicher Machart auch.
Umso schwieriger aber wird es für ihre Leserinnen, solche Texte als menschen- oder maschinengemacht einzuordnen. Wenn man bedenkt, wie viel des Geschriebenen, das uns täglich umgibt, Produkte solcher langweiligen Routineaufgaben sind, wird das Ausmaß klar, in dem wir generierte Texte zu erwarten haben. Je mehr davon zirkulieren werden, desto mehr wird sich die Standarderwartung an unbekannte Texte fort von der unmittelbaren Annahme menschlicher Autorenschaft in Richtung jenes Zweifels verlagern: Hat das eine Maschine geschrieben?
Nun mag sich die Frage bei Marketingprosa weniger stellen – was aber ist mit dem Brief vom Anwalt, der automatisch erstellt sein könnte, obwohl es um meinen ganz persönlichen Fall geht? Was mit den Essays meiner Studierenden, die ich bewerten muss? Was mit politischen Artikeln oder Meinungsbeiträgen in der Zeitung? Was mit der privaten, persönlichen, intimen E-Mail? Ist auch sie ein KI-Produkt – ganz oder in Teilen?
Zumindest ein Grund für das Unbehagen, das mit diesen Vorstellungen einhergeht, lautet: Menschen stehen ein für das, was sie schreiben. Selbst wenn sie sich irren oder in die Irre führen, gehen wir zunächst davon aus, dass die Schreibenden es ernst damit meinen. Nur deshalb muss kritische Lektüre überhaupt gelernt werden: Man will Texten erst einmal glauben.
Das wird aber schwieriger, wenn große Sprachmodelle einerseits Texte herstellen können, die so scheinen, als hätte sie ein Autor produziert und sanktioniert – und die andererseits kein zuverlässiges Wissen über die Welt besitzen, sondern nur die Wahrscheinlichkeit von Zeichenfolgen ausrechnen.
Diese Gefahr wurde im November 2022 recht drastisch durch das Sprachmodell Galactica illustriert, das die Facebook-Mutterfirma Meta veröffentlicht hatte: Auf Millionen Papers, Lehrbücher, Enzyklopädien und wissenschaftliche Websites trainiert, sollte Galactica dabei helfen, akademische Texte zu schreiben. Doch nach nur drei Tagen wurde es wieder offline genommen. Das Modell nämlich verfasste brav und en masse Ausgaben, die autoritativ klangen, den Gepflogenheiten wissenschaftlicher Formatierung und Gesten folgten – aber völligen Unsinn enthielten, weil Galactica nur wahrscheinliche Sätze vollendete, statt auf Wissen zuzugreifen.
Die Standarderwartung an Texte wird sich also auf kurz oder lang verschieben – von der Überzeugung, ein Mensch stehe dahinter, zum Zweifel, ob es nicht doch eine Maschine sein könnte. Damit aber wird auch die Unterscheidung zwischen natürlichen und artifiziellen Texten zusehends hinfällig. Wir würden dann womöglich in eine Phase postartifizieller Texte übergehen.
Darunter verstehe ich zweierlei: Erstens die zunehmende Vermischung von natürlichen und artifiziellen Texten. Natürlich war auch schon vor großen Sprachmodellen kein Text wirklich ganz natürlich. Nicht nur kann die mathematische Verteilung von Zeichen auf einer Seite, wie Bense sie vorschwebte, auch von Hand erfolgen, ebenso ist es eine Binsenweisheit der Medienwissenschaft, dass jedes Schreibzeug – vom Federkiel bis zum Wordprozessor – dem damit Produzierten seinen Stempel aufdrückt.
Heute aber – dadurch, dass KI-Sprachtechnologien in die kleinsten Verästelungen unserer Schreibvorgänge eindringen – ist eine neue Qualität der Vermischung erreicht. In ungeahntem und nahezu unentwirrbarem Ausmaß integrieren wir artifiziellen in natürlichen Text.
Angesichts großer Sprachmodelle ist es nicht ausgeschlossen, dass beide in einen sich gegenseitig bedingenden Kreisprozess eintreten, der sie vollends miteinander verstrickt. Da ein Sprachmodell lernt, indem man es auf große Mengen Text trainiert, bedeutet bislang mehr Text immer auch bessere Performance. Denkt man das zu Ende, wird ein zukünftiges, monumentales Sprachmodell einmal mit aller verfügbaren Sprache überhaupt trainiert worden sein. Einer Studie zufolge wird dieser Fall bereits in den nächsten Jahren eintreten. Man könnte eine solche KI „das Letzte Modell“ nennen. Jeder mit diesem „Letzten Modell“ generierte artifizielle Text wäre dann auf Grundlage allen natürlichen Texts entstanden; zugleich hätten sich so auch die natürlichen linguistischen Ressourcen für das Modell nach dem Letzten Modell erschöpft.
Es mag sich damit, wie der Philosoph Benjamin Bratton es nennt, ein „Ouroboros‑Effekt“ ergeben: Wie die Schlange, die sich selbst in den Schwanz beißt, werden alle folgenden Sprachmodelle dann anhand von Text lernen, der selbst bereits aus einem Sprachmodell stammt. Damit käme, könnte man sagen, natürliche Sprache an ihr Ende. Der so gewonnene Sprachstandard würde wieder auf menschlich Sprechende einwirken – er hätte, eingebunden in all die kleinen Schreibassistenten, den Status einer bindenden Norm, der statistisch kaum zu entkommen wäre: Jede linguistische Innovation, die in menschlicher Sprache regelmäßig neu auftaucht, hätte einen so geringen Anteil an den zukünftigen Trainingsdaten, dass sie in zukünftigen Modellen praktisch keine Spuren hinterließe.
Das ist natürlich ein bewusst überspitztes Szenario. Als Gedankenexperiment zeigt es aber, was postartifizieller Text im Extremfall sein könnte. Doch schon bevor es soweit ist, ergäbe sich bereits eine neue Standarderwartung an unbekannten Text.
Das ist die andere Bedeutung von „postartifiziell“. Nach der stillschweigenden Annahme menschlicher Autorenschaft und dem Zweifel an der Herkunft von Geschriebenem, wäre sie die dritte Erwartungshaltung an unbekannte Texte. Denn der Zweifel über den Textursprung kann, wie jeder Zweifel, nicht von Dauer sein; Menschen haben ein Interesse daran, Unsicherheit abzubauen. Das kann etwa durch digitale Zertifikate, Wasserzeichen oder andere Sicherheitstechniken geschehen, oder durch das schlichte juristische Verbot von verschleiert Generiertem.
Sollten politische Regulierung und technische Eindämmung jedoch scheitern, ist es nicht unwahrscheinlich, dass die Erwartung selbst postartifiziell wird: Statt einen Menschen hinter einem Text zu vermuten oder von der Skepsis heimgesucht zu werden, ob es nicht doch eine Maschine ist, wird diese Frage schlicht uninteressant: Wir konzentrieren uns dann nur darauf, was der Text sagt, statt darauf, von wem er stammt. Postartifizielle Texte wären ihrer Herkunft gegenüber neutral; sie wären standardmäßig autorlos. Es wäre der Tod des Autors, digital.
Schon heute gibt es wie gesagt Texte, über deren Ursprung man sich keine Gedanken macht; ein Straßenschild hat in diesem Sinne keine Autorin und im täglichen Leben ist für uns die Wettermeldung ebenfalls praktisch autorlos. In Zukunft ist abzusehen, dass immer mehr Texte so rezipiert werden. Die Zone unmarkierter Texte weitet sich aus. Nicht nur Straßenschilder, sondern auch Blogeinträge, nicht nur Wettermeldungen, sondern auch Informationsbroschüren, die Diskussion von Netflix-Serien und sogar ganze Zeitungsartikel wären in Zukunft tendenziell unmarkiert, autorlos.
Literarische Texte dagegen sind heute immer noch maximal markiert. Wir lesen sie radikal anders als andere Textsorten – unter anderen gehen wir weiter davon aus, dass sie eine menschliche Autorin haben. Was müsste geschehen, damit auch Literatur postartifiziell würde?
Je „normaler“ eine Schreibaufgabe ist, desto leichter lässt sie sich durch KI‑Sprachtechnologien realisieren. Und so, wie es assistierende Marketing-KI für erwartbare Marketing-Prosa gibt, gibt es inzwischen auch assistierende Literatur-KI für mehr oder weniger erwartbare Literatur.
So wie die Bücher von Jennifer Lepp, die unter dem Pseudonym Leanne Leeds Fantasyromane schreibt – und zwar wie am Fließband, alle 49 Tage einen. Ihr hilft dabei das Programm Sudowrite, ein GPT-basierter, spezifisch literarischer Schreibassistent, der Dialoge fortführt oder Beschreibungen ergänzt. Die Qualität dieser Textausgaben ist recht hoch, insofern ihr Inhalt eben, als Genreliteratur mit wiederkehrenden Elementen, erwartbar ist.
Da sich alle Besonderheiten in der Masse an Trainingsdaten ausmitteln, tendieren solche Texte auf einen konventionellen Umgang mit Sprache – sie werden selbst Ouroboros-Literatur. Im Moment sind KIs zur Generierung ganzer Romane noch nicht ausgereift, aber ich sehe nicht, wieso Unterhaltungsliteratur nicht sehr bald schon nahezu vollautomatisiert hergestellt werden könnte; dann wäre es möglich, dass aus den 49 Tagen nur 49 Minuten werden oder noch weniger.
Es wäre diese Art von Literatur, die am ehesten postartifiziell werden kann. Zwar würden Autorennamen nicht verschwinden, aber sie würden eher als Marke fungieren, die für einen erprobten Stil stehen, statt tatsächlich menschliche Herkunft anzuzeigen. Die unmarkierte Zone würde sich auf bestimmte Bereiche der Literatur ausweiten – nicht auf alle, aber eben doch auf weit mehr als heute.
Umgekehrt kann man fragen: Welche Literatur könnte sich dann dieser Ausweitung am ehesten entziehen? Ist unmarkierte, postartifizelle Literatur solche, die natürliche und künstliche Poesie absolut mischt, wäre weiterhin markiertes Schreiben eines, das gerade die Trennung betont.
So könnte man sich also die Hervorhebung menschlicher Herkunft als besonderes Merkmal vorstellen. Vielleicht gibt es in Zukunft dann das Label guaranteed human‑made: Wie man auf Etsy oder bei Manufactum Handgefertigtes kauft, würden solche Texte ihre menschliche Herkunft als Qualitätsausweis und Verkaufsargument vor sich hertragen.
Nur: Auch diese Versicherung ist nicht beweisbar. Was dann noch bliebe, wäre, den Durchschnittstexten der KI mit einem radikal unkonventionellen Gebrauch von Sprache zu begegnen. Jedes formale Experiment, jede linguistische Subversion liefe der Wahrscheinlichkeit großer Sprachmodelle, ihrem Ouroboros-Standard zuwider. Textuelle Unvorhersehbarkeit wäre dann Beweis menschlicher Herkunft – Avantgarde würde zur literarischen Selbstbehauptung gegen das Postartifizielle.
Das alles ist natürlich sehr spekulatives Terrain. Ich will nicht sagen, dass im weitesten Sinne konventionelle Literatur von nun an verloren wäre. Auch nicht, dass postartifizielle Texte notwendig schlecht sind – man wird sicher auch sie mit Freude lesen und ihren Sinnüberschuss enträtseln können. Mir ging es hier nur um die Analyse von Tendenzen, und da lohnt sich der Blick auf mögliche Extreme.
Eins scheint aber sicher zu sein: Mit der zunehmenden gesellschaftlichen Durchdringung von Sprachtechnologien, mit dem Siegeszug von KI-Modellen werden sich unsere Leseerwartungen verändern.
Daher zum Abschluss eine Frage an Sie: Wie reagieren Sie, wenn ich Ihnen nun sage, dass auch ich in diesem Text große Teile per KI habe schreiben lassen? Fühlen Sie sich übers Ohr gehauen? Dann sind Sie noch fest in der Standarderwartung des 20. Jahrhunderts zuhause. Ich kann Sie aber beruhigen: Dieser Text entstand völlig ohne KI-Assistenz. Oder doch nicht? Können Sie sich da ganz sicher sein? Wenn Sie nun unschlüssig sind, dann stehen Sie bereits an der Schwelle zur zweiten Erwartung, dem Zweifel an der Herkunft eines Textes im Zeitalter großer Sprachmodelle. Vielleicht ist es Ihnen aber auch egal – nicht völlig, aber doch genug, dass Sie sich vorzustellen vermögen, wie eine Welt postartifizieller Texte aussehen könnte.