GPT-2 erfindet erste Sätze aus Romanen, die nie geschrieben wurden.

Frau Janelle Shane hat GPT-2 auf einen Datensatz aus mehr als 10000 ersten Zeilen aus der Literaturgeschichte trainiert und generiert damit nun jede Menge mal mehr mal weniger großartige Intros zu Büchern, die nie geschrieben wurden. Ich kann mir sehr gut eine Schreibsoftware mit integriertem Trainer vorstellen, der eine automatische Text-Vervollständigung für Autoren anbietet, so dass eine Option für Literaten schon bald die Kuration und Ausarbeitung von synthetischen Textbausteinen sein könnte.

Leute, die der Gedanke abstößt, sollten vielleicht mal darüber nachdenken, dass praktisch alle älteren Literaturklassiker mit blutigen Fingern in Handarbeit bei Kerzenschein geschrieben wurden. Ich möchte heute auch nur einen Menschen sehen, der einen Wälzer wie Don Quixote, entstanden zu Beginn des 17. Jahrhunderts, mit der Hand schreibt.

Zukünftige kreative Arbeit dürfte (neben der üblichen manuellen Arbeit) immer mehr die Kuration synthetischer Inhalte bedeuten, eine Arbeit die sich von der heutigen Vorgehensweise von bekannter Künstler nicht maßgeblich unterscheidet. Ein Star-Fotograf erscheint heute nur noch am Set, um aus den Arbeiten seiner Praktikantinnen und Angestellten auszuwählen und jemand wie Jeff Koons bastelt seine Ballon-Pudel ganz sicher nicht mehr selbst. Man kann sich das soziale Netz des Studios eines Star-Kreativen wie ein organisches neurales Netzwerk vorstellen, das ebenfalls jede Menge Arbeiten erstellt, die vom Chef nur noch abgenickt werden. Dieser Prozess wird durch solche „kreativen“ AIs lediglich demokratisiert.

Hier beschreibt Shane in einem Absatz, warum diese Zeilen so gut funktionieren. Nicht weil die künstliche Intelligens eine Ahnung von Physik oder davon hätte, wie Dinge funktionieren, sondern exakt eben weil sie nicht weiß, wie diese Dinge funktionieren. Das verleiht der AI die Freiheit, die für gelungene Literatur nötig ist. In einem Buch kann ich mir Armeen von fliegenden Luft-Hasen beschreiben und einen Mond voller Piraten-Götter und das ist genau das, was GPT2 hier tut. Und für die Wirkung des Texts ist sein synthetischer Ursprung völlig irrelevant.

I think it’s probably doing this accidentally, stringing likely words and phrases together without understanding what any of them really mean. It’s not that it’s good at science fiction or magical realism; it’s that it’s trying and failing to predict what would have fit in with the usual human-written stuff. Some of the neural net’s first lines really betray its lack of the understanding of the laws of physics. It really likes to describe the weather, but it doesn’t really understand how weather works. Or other things, really.

Hier ein paar meiner Favs aus GPT2s literarischer Intromaschine. Keiner dieser Sätze würde bei mir den Verdacht synthetischen Ursprungs erwecken, würde ich ihn als erste Zeile in einem Buch lesen:

I am, or was.

“I am Eilie, and I am here to kill the world.”

The old woman was sitting on a rock near the sea, smoking a pipe.

When I was a boy, I was fond of the story of the pirate god.

The village of Pembrokeshire, in the county of Mersey, lies on a wide, happy plain, which, in a few years, was to become known as the “Land of the Endless Mountains.”

The moon had gone out.

I was playing with my dog, Mark the brown Labrador, and I had forgotten that I was also playing with a dead man.

The black stone was aching from the rain.

Behold the Sky Rabbits!

In the belly of the great beast that was the bovine Aurore there lived, upon the right hand of the throne, the Empress Penelope; and she had, as it were, a heart of gold.

The child of two cats, and a tiger, a clown, a horse, a bird, a ship, and a dragon, stood on either side of the threshold of the Gatehouse, watching the throng of travelers who came in from all around the world, before he had any idea what was going on.

The sea of stars was filled with the serenity of a million little birds.

The great blue field was all white, swept away by the blue-gold breeze that blew from the south.

Und hier ein paar Favs aus dem GPT2-Literatursynth, die nicht ganz so gelungen sind, dafür aber seltsam und weird und auf so ‘ne Art komisch, die nur Maschinen hinbekommen:

I once went to a party where the dress code was as strict as a chicken coop with no leggings and no boots.

The man who was not Jack the Ripper had been promoted four times in the last two years.

It’s the end of the world, it’s the end of the world, it’s the end of the world, it’s the end of the world, it’s the end of the world, you’re dead.

Someone whipped a dead squash gibbet across the room, like some formidable war lord unleashing a heavy hunk of silver at home.

The night I first met Winnie the Pooh, I had sat in the Tasting-House and heard the Chef unpack the last of the poison upon his quiet dinnertable.

Jetzt Nerdcore unterstützen!

Nerdcore veröffentlicht seit mehr als 12 Jahren Analysen und Dokumentationen zu Memetik, Netz-Soziologie und digitalen Subkulturen, garniert mit jeder Menge Kunst, Entertainment und Unfug. Nerdcore prägte die deutsche Netzkultur maßgeblich, initiierte die erste deutsche Meme, ging Frau Merkel mit Flashmobs auf die Nerven und manche Menschen behaupten, ich würde ab und zu gute Arbeit abliefern.

Die Website ist seit 2017 werbefrei und wird aus Spenden und Abonnements finanziert. Um den Betrieb der Seite und meine Vollzeitstelle zu sichern, könnt ihr gerne ein Abonnement auf Patreon oder Steady abschließen oder mir eine einmalige Spende oder einen Dauerauftrag per Paypal oder auf mein Konto (IBAN DE05100100100921631121) zukommen lassen.

Vielen Dank an alle Leser und Unterstützer dieses Blogs.

Neu auf Nerdcore:

Nerdcore auf Twitter

We suck poor Blood

AI-Lego-Sortier-Maschine aus 10000 Lego-Steinen

Banksys Streetart for the Homeless of Birmingham

Ghostbusters: Afterlife – Trailer

JETZT NERDCORE UNTERSTÜTZEN!