Der Digitale Alltext – Künstliche Intelligenzen als Autoren

Dieser Text entstand für eine andere Publikation, die allerdings nicht zustande kam. Um ihn in der Schublade beziehungsweise auf der Festplatte verstauben zu lassen, finde ich ihn aber zu schade, auch, wenn er bedingt durch das ursprünglich angedachte Format manchmal etwas plakativ sein muss.

Schreibende künstliche Intelligenzen haben eine lange Tradition, die mindestens ins Jahr 1966 zurückreicht. Damals entwickelte Joseph Weizenbaum ein Programm namens ELIZA, das den Benutzer durch einen pseudo-psychotherapeutischen Dialog führte und mehr oder weniger auf seine Eingaben einging.

Seitdem ist viel passiert. Heute genügt es, einem Programm eine ungefähre Beschreibung des Textes zu liefern, den man sich wünscht, um nach wenigen Sekunden das Ergebnis auf dem Bildschirm zu sehen. Ein Computerprogramm, das Texte schreibt – das erinnert an wild auf Schreibmaschinen hämmernde Affen, die durch das, was der Informatiker „Brute Force“, rohe Gewalt, nennt, qua der zwar enormen, aber eben nicht unbegrenzten Menge möglicher Buchstabenkombinationen einer bestimmten Länge früher oder später durch Zufall (oder einen schöpferisch genialen Affen, den das Gedankenexperiment stets vernachlässigt), die Werke William Shakespeares – ja, was eigentlich? Produzieren oder reproduzieren?

Die fleißig hämmernden Affen, deren einer vielleicht gerade auch diese Zeilen verfasst, sind auf eine mechanische Weise schöpferisch, sie sind nur Medien, die mittels ihrer behaarten Finger einen Text nach dem anderen aus dem ungreifbaren Raum potenzieller Texte herausholen, in dem alle möglichen Kombinationen von Buchstaben gewissermaßen herumschwirren und manchmal sogar einen uns verständlichen Sinn haben. Der mechanischen Natur ihrer Arbeit geschuldet kommen die Affen dabei vergleichsweise langsam voran. Computerprogramme hingegen haben nicht mit dem Hindernis zu kämpfen, über nur zehn Finger zu verfügen und sind entsprechend schneller als jemand, der jeden Buchstaben mühsam in die Textverarbeitung eingeben muss.

Die Technologie zum schnellen Erzeugen zufälliger Buchstabenfolgen war schon lange verfügbar (ein entsprechendes Programm kann jeder Informatik-Erstsemester in Minuten schreiben), aber sie war nutzlos, da das primitive, die Primaten nur digitalisierende Vorgehen mehr Ausschuss produziert hätte, als sinnvoll zu sichten gewesen wäre.

Mit den neuen Verfahren ist es anders: Sie speisen sich aus bereits bestehenden Texten und lernen anhand dieser, zum Beispiel Kurzgeschichten im Stile von Kafka zu schreiben. Nun muss niemand mehr auf den Zufall vertrauen, sondern kann einem dressierten Cyber-Affen genau mitteilen, was dieser verfassen soll – und das gelingt ihm schon ganz gut. Luft nach oben ist immer, ganz besonders bei dem, was die aktuell verfügbaren Softwares produzieren, aber die Bedrohung für die Affen an ihren Schreibmaschinen zeichnet sich mehr als deutlich ab: Wer würde auch nur eine Banane herausrücken, wenn die gleiche Arbeit viel schneller von etwas erledigt werden kann, das aus Versatzstücken etwas scheinbar Neues bastelt und noch dazu weder Nahrung noch Wohnraum benötigt?

Vielleicht besteht die Arbeit des Schriftstellers in zehn Jahren nicht mehr darin, seinen Blick auf die Welt in stilistisch ausgefeilter Belletristik zu präsentieren, sondern darin, besonders elaborierte Aufforderungen in die Eingabemaske einer künstlichen Intelligenz zu tippen, um diese die anstrengende Arbeit mit Symbolen, mit Technik und Stil erledigen zu lassen.

Abgesehen davon, dass irgendjemand das, was da rekombinierend produziert wird, immer noch auf seine Tauglichkeit hin überprüfen muss, kränkeln die Textgeneratoren an einem so schnell nicht zu behebenden Problem: Künstliche Intelligenzen verfügen über kein Verständnis dessen, was sie da eigentlich zusammensetzen. Die Sätze ergeben Sinn, aber sie sind nur Oberfläche; Symbolik ist Zufall, Psychologie nicht vorhanden, und formale Experimente kann ein von Natur aus auf Imitation ausgelegtes Werkzeug auch nicht wagen. Vielleicht ist das irgendwann einmal anders, aber bis dahin sind die Texte dieser künstlichen Intelligenz nur Produkte eines angeleiteten Zufalls: Der Ausschuss der Produktion mag insgesamt geringer sein, aber ob ein Text gut ist, kann der Autor selbst immer am schlechtesten beurteilen, ganz besonders dann, wenn seine Programmierung das nicht vorsieht.

Eine Frage, die wir uns gegenwärtig dringender stellen sollten: Woher kommen eigentlich die Texte, mit denen die Programme trainiert werden? Es ist ein entscheidender Unterschied, ob eine KI mit und an den Texten Goethes oder denen eines zeitgenössischen Autors lernt – des ersteren Texte sind gemeinfrei, des letzteren sind dies im Regelfall nicht. Das könnte die Schöpfer dieser schreibenden Programme gegenwärtig allerdings wenig kümmern, sollten ihre Datenbanken genauso krakenarmig sein wie die der zur Zeit so viel diskutierten malenden künstlichen Intelligenzen. Früher oder später könnten auch diese dem Wortwirrwarr entrissenen Sätze in einer Datenbank verdaut werden, ob der Affe, der sie gerade schreibt, das will oder nicht.