Im Dezember berichtete Motherboard über einen reddit-User namens „deepfakes“, der es als sein Hobby betrachtet, die Gesichter von Prominenten auf Pornodarsteller zu übertragen und so seine eigene Fake-Pornos zu fabrizieren. Zu seinen Opfern gehörten Persönlichkeiten wie Gal Gadot, Maisie Williams und Taylor Swift, die er alle sehr überzeugend in Szene setzte. Seine Werkzeuge: öffentlich zugängliche Videos, etwas Freizeit, sein Heimcomputer – und künstliche Intelligenz.
„deepfake“ als Synonym für Fake-Pornos
Mittlerweile hat sich deepfakes eine eigene Fangemeinde geschaffen, innerhalb der das KI-gestützte Erstellen von Fake-Pornos mit Prominenten zu einer Art Hype ausgebrochen ist. Sein nach ihm benannter reddit-Kanal, der seinem Vorgehen gewidmet ist, hat bereits über 23.000 Abonnenten. Seine „Jünger“ benutzen das Wort deepfake inzwischen als Synonym für durch neuronale Netzwerke generierte, gefälschte Sexfilme.
Die FakeApp für jedermann
Da alle nötigen Tools, einschließlich anfängerfreundlicher Anleitung, kostenlos im Netz zur Verfügung stehen, ging ein reddit-User namens deepfakeapp sogar soweit, mit FakeApp eine nutzerfreundliche Anwendung zu programmieren, die es jedem ermöglicht, solche Video aus eigenen Datensätzen zu erstellen. Sie basiert auf dem ursprünglichen Algorithmus von deepfakes.
Gegenüber Motherboard erklärte deepfakeapp, dass er damit deepfakes Technologie für Menschen ohne technischen Hintergrund und Programmiererfahrung zugänglich machen wolle. Darüber hinaus betrachte er es als sein Ziel, die App deutlich zu vereinfachen, sodass künftige User nur noch wenige Klicks ausführen müssen, um ein Video mit einem anderen Gesicht zu kreieren.
Der größte Aufwand ist Zeit
Der Aufwand mit FakeApp hält sich The Register zufolge aber auch jetzt schon in Grenzen. Alles, was nötig ist, ist eine Nvidia-GPU, um das neuronale Netzwerk zu trainieren, Nvidias CUDA-Software, um den TensorFlow-Code (Open-Source-Programmbibliothek für künstliche Intelligenz beziehungsweise maschinelles Lernen) auszuführen und mindestens drei Gigabyte Speicherplatz. Alles, was dann noch fehlt, sind ausreichend Bilder der Zielperson und einige Stunden Zeit, die der Algorithmus zum Lernen benötigt.
Bereits jetzt posten unzählige User auf reddit ihre manipulierten Sexfilme und bitten um Hinweise, wie sie dabei noch besser werden können. Dabei besteht aber auch großes Potenzial für Missbrauch. Dieser kann von Erpressung und Belästigung bis hin zu gefälschten Rache-Pornos und sogar Kinderpornografie reichen.
Jugendfreie Anwendungsfälle à la Carrie Fisher
Ein Lichtblick: Es gibt auch unschuldige Anwendungsfälle für diese Software, beispielsweise das eigene Gesicht auf den Hauptcharakter eines Blockbusters zu projizieren. Einem User soll es sogar gelungen sein, Carrie Fishers Gesicht so präzise auf eine andere Person zu übertragen, dass das Ergebnis selbst die CGI-Version von Fisher in „Star Wars: Rogue One“ übertrifft.