OpenAI releases „Deepfake for Text“ – Unicorns not amused

18. Februar 2019 21:33 | Tags: , , ,

Seit Jahren gibt es bereits automatisierten Journalismus, eins der bekanntesten Beispiele war Quakebot, der damals kurz nach einem Erdbeben in Los Angeles eine entsprechende Meldung formulierte und veröffentlichte. Genauso werden seit Jahren Meldungen zu Sport und aus der Finanzwirtschaft von Algorithmen generiert, prinzipiell sind alle Nachrichten, die vor allem Werte, Zahlen und Ergebnisse (eben: Erdbebenstärken, Orte, Aktienkurse, Fußballtabellen, Tor-Verhältnisse und so weiter) einfach zu automatisieren. Am Ende sitzt noch ein Redakteur, der ein oder zwei Worte zurecht schiebt. Kohärente Texte konnten solche Algorithmen bislang nicht wirklich produzieren, die auf vorhergehende Absätze eingingen und tatsächlichen Sinn ergaben.

OpenAI hat nun einen neuen Algorithmus entwickelt. GPT-2 wurde auf 40 Gigabyte Text von Reddit trainiert und die Ergebnisse sind anscheinend so gut, dass die Organisation bislang nur ein Technical Paper und ein Modell veröffentlich, das auf weit weniger Text trainiert wurde, das weit weniger überzeugende Ergebnisse abliefert. Die Entwickler halten den Algorithmus für potenziell gefährlich und ich halte das für einen wirklich eleganten PR-Move. (Wobei das ein wenig unfair ist: Es gibt seit Jahren bereits Erkennungs-Algorithmen, die mit dem Schreibstil der zu identifizierenden Personen arbeitet – ein solcher Algorithmus könnte genutzt werden, um Identitäten von Journalisten oder Politikern zu fälschen).

Die Ergebnisse sind in der Tat beeindruckend, hier eine kohärente Meldung um die Entdeckung einer Einhorn-Herde in den Anden: (mehr …)