08.09.19 – Josef Zorn

Zwei Seiten, die sich bekämpfen und auf diese Art Fortschritt bringen. Das ist die Funktionsweise von Deepfakes – und von unserer Welt. Ein Behind-the-Scenes zu unserer großen Deepfake-Doku

Wenn man sich die Sprünge ansieht, die Künstliche Intelligenz allein in den vergangenen paar Jahren gemacht hat, ist es eigentlich ein Wunder, dass wir immer noch dieselbe Bezeichnung wie damals dafür verwenden. Die neuesten Neuronalen Netzwerke verhalten sich zu ihren Vorgänger-Generationen wie ein faltbares Smartphone zu einem Festnetztelefon.

Moderne A.I.s können zum Beispiel problemlos realistische Video-Imitate von Menschen, inklusive deren Stimmen und Gesichtern – sogenannte Deepfakes – erstellen. Und wie Peter B. Parker in Spider-Man: Into the Spider-Verse fiel ich tief in dieses komplexe Universum mit seinen unzähligen technischen und moralischen Paralleldimensionen. Für die MAGNET-Doku „Heast, wos is … Deepfake?“ traf ich die spannendsten Menschen aus der A.I.-Forschung, dem Journalismus und dem öffentlichen Leben. Und die Unterhaltungen in den Drehpausen waren oft mindestens so spannend wie das eigentliche Thema.

Ich habe mich gefragt, wo die Grenze zwischen Falschmeldungen und Deepfakes verläuft und wie gefährlich oder verheißungsvoll die neue Technologie wirklich ist – und habe dabei gelernt, dass Deepfakes nur die offensichtlichste, weil (medien-)wirkungsvollste Ausprägung dieser neuen Generation von A.I.s sind. Wenn Mark Zuckerberg über Facebook auspackt oder Emma Watson in Porno-Clips vermeintlich dasselbe tut, hat das naturgemäß mehr Wirkung als ein paar Zeilen Code, die dafür sorgen, dass selbstfahrende Autos sicherer werden. Aber auch hier kommt dieselbe Technologie zum Einsatz wie beim Erstellen der bekannten Fake-Videos. Und dasselbe gilt für Videospiele, Lügendetektortests und dem Überwachungsapparat der chinesischen Regierung.

Egal, ob wir Autos trainieren, Gesichter deepfaken, Menschen quer durch die Stadt tracken oder Grashalme in Videospielen naturalistisch echt animieren wollen – die Maschinen hinter Deepfakes werden immer intelligenter und ihre Lernmethoden dabei immer weniger künstlich.

Eine Sache, die sich dabei durch alle Aspekte des Themas zog, war das Aufeinandertreffen von Gegensätzen. Das hat schon die Funktionsweise von Deepfake an sich. Um Deepfakes immer echter und echter wirken zu lassen, braucht es nämlich besondere Netzwerke; sogenannte „Generative Adversarial Networks“, kurz GANs. Dabei handelt es sich um zwei Künstliche Intelligenzen, die versuchen, einander auszutricksen. Die eine generiert Bilder und Datensätze, die andere ist darauf trainiert, diese als Fake oder Original zu erkennen.

Dieses Prinzip der gegenseitigen Kontrolle, der sich ausgleichenden Gegensätze, ist passenderweise auch sowas wie das Leitmotiv von MAGNET. Begleitend zur Dokumentation habe ich mir ein paar Gedanken dazu gemacht, wie sich dieses „gegnerische“ technologische Konzept auch in den Interview-Momenten widerspiegelt. Und, wenn wir schon dabei sind, in unserer gesamten Welt.

Magnet-DeepfakeKunst-Content_Bild-01-1280x720 © Karo Pernegger

Eine Sache fiel mir gleich zu Beginn auf, als wir mit Sepp Hochreiter über das Gelände der Linzer Johannes Kepler Uni spazierten. Sepp macht ständig Witze. Sepp Hochreiter, ursprünglich aus dem bäuerlichen Bayern, ist einer der Urväter der modernen Künstlichen Intelligenz und lebt trotz mehreren Angeboten von globalen Tech-Giganten in Linz. Hier findet ihr ein Porträt des A.I.-Pioniers.

Als wir ihn baten, für die Schnittbilder vorbei am Ententeich in die Ferne zu schauen, meinte er scherzhaft: „Ist das nicht selber total fake?“ Womit Hochreiter natürlich einen Punkt hatte. Während wir uns auf theoretischer Ebene viele Gedanken über die Gefahren einer neuen Technologie machen, produzieren wir selbst natürlich Inszenierungen am laufenden Band. Wie echt ist ein Instagram-Posting? Wie wirklich ist irgendwas, das wir an Kultur produzieren? Und wie authentisch sind Schnittbilder in einer Doku, bei der es jemanden gibt, der Regie führt und den Gesprächspartner*innen sagt, dass sie am Ententeich vorbeischauen sollen, als wäre es das Natürlichste in der Welt? Wo fangen Fakes eigentlich an?

Wie ein schlauer Mensch mal gesagt hat: Nur dumme Menschen haben auf alles eine Antwort. Wichtiger ist ohnehin, die richtigen Fragen zu stellen. Auch das ist eine Sache, die man von Sepp lernen kann. Fragen kurbelt die Forschung an. Und Panikmache hilft dabei kein Bisschen weiter; stattdessen sollte man seine eigene Neugier schärfen und die Dinge gelassen und mit Humor nehmen. Sobald das Interview begann, war Sepp übrigens ein sachlicher Vollprofi und faszinierte uns mit Einsichten in dieses teils sehr junge Forschungsgebiet.

Ein anderer vordergründiger Widerspruch, der mich zu dem Zeitpunkt aber schon lange nicht mehr verwundern konnte, war der Umstand, dass Sepp sich eigentlich nicht allzu sehr für gefälschte Videos wie Deepfakes interessierte, obwohl die A.I.-Technologie dahinter zu einem großen Teil sein Verdienst ist. In den 1990ern erfand er als Diplomand das Long-Short-Term-Memory-System (LSTM), mit dem das „Erinnerungsvermögen“ dieser Systeme schlagartig besser wurde. Dieser Entwicklung verdanken wir Anwendungen wie Google Translate; und praktisch alle automatischen Übersetzungsdienste im heutigen Internet.

Bekannt geworden wäre das Ganze – oder Sepp Hochreiter – allerdings nicht ohne seinen Mentor und Co-Autor des LSTM-Systems, Jürgen Schmidhuber. Schmidhubers Rolle, erklärt Hochreiter, war dabei hauptsächlich die des genialen Verkäufers, der die Idee in die Welt hinaus trug und für die Menschheit greifbarer machte. „Ich hätte das nicht gekonnt“, sagt Hochreiter heute. „Er ging damals zu allen Vorträgen.“ Auch wenn man Sepp Hochreiter die Schüchternheit nur schwer abkauft – laut ihm war es genau diese Kombination aus witzigem, aber stillen Forscher und dem Produzenten, der gewissermaßen als Marktschreier die Welt bereiste, die das LSTM erst erfolgreich machte.

Als wir Location wechseln, erzählt Sepp noch beiläufig, dass seine Tochter kürzlich mit einem gefälschten Ausweis beim Zigaretten kaufen erwischt worden sei. „Das passt doch auch zu dem ganzen Fake-Thema, oder?"“

Magnet-DeepfakeKunst-Content_Bild-02-1280x720 © Karo Pernegger

Soviel zur Technologie dahinter – zurück zur User-Seite von Fakes. Deepfakes sprechen eine Grundangst in uns Menschen an; nämlich die Angst, falsch verstanden und abweichend vom Selbstbild wahrgenommen zu werden. Was bedeutet das aber dort, wo Selbstdarstellung ohnehin überzeichnet ist und wir sozialmediale Kunstfiguren für uns erschaffen haben?

Nirgends liegen Authentizität und Fakes so nahe beisammen wie auf Instagram, TikTok und YouTube. Die Wohnung von Jana Kasper, bekannt als die YouTuberin und Lifestyle-Persönlichkeit janaklar, erstrahlt aufgeräumt, mit hippen Einmach-Trinkgläsern und erstaunlich leeren Räumen. Abgesehen von einer sehr lebhaften Französischen Bulldogge sah die Wohnung eigentlich kaum bewohnt aus – und ließ entsprechend wenige Rückschlüsse auf die Bewohnerin zu.

In der Drehpause erzählt Jana, dass zwei ihrer Social-Media-Konten – beide mit hunderttausenden Followern – gehackt wurden. Von den Accounts wurden Falschnachrichten verschickt, Bilder wurden gelöscht. Identitätsklau, nicht unähnlich dem, womit wir es bei Deepfakes zu tun haben. Sie bekam die Konten zwar glücklicherweise zurück, aber die Hacks machten für Jana deutlich, wie fragil die eigene Existenz online sein und wie plötzlich man selbst zur „Fälschung“ werden kann.

Gewissermaßen das Gegenteil davon scheint bei Internet-Persönlichkeit und Glitter-Anarcho @candyken69 der Fall zu sein. Auch von ihm gibt es natürlich Fake-Profile; aber anstatt dagegen vorzugehen oder die Frage nach der Echtheit allzu ernst zu nehmen, spielt Candy Ken auch noch selbst mit dem Verschwimmen dieser Grenzen. Das Internet-Einhorn, das eigentlich Jakob heißt und aus Vorarlberg nach L.A. gezogen ist, verarscht das Netz sogar regelrecht mit eigenen Fake-Storylines in seinen Insta-Posts – und hält leichtgläubigen Menschen so den Spiegel vor. Sein Motto: Question everything. Aber auch: Spaß haben mit dem Internet – wo ohnehin alles auf die eine oder andere Art fake ist.

Apropos Grenz-Phänomene und Wechsel-Identitäten: Das Thema beschäftigte uns auch beim Dreh mit dem Pornostar-Pärchen Little Caprice und Marcello Bravo. Little Caprice erlangte neue Porno-Berühmtheit, als ihr Körper als Vorlage von unzähligen Emma-Watson-Deepfakes verwendet wurde. Mit Fakes kennt sich das Pärchen also aus. Aber nicht nur auf die offensichtliche Art – abseits von Deepfakes beschäftigen die beiden vor allem die zahllosen Fake-Profile.

Und noch eine ganz andere, sehr praktische Frage beschäftigte uns: Bei unserem Treffen mit dem Pärchen waren wir gefordert, uns zuerst mal zu entscheiden, ob wir sie nun mit ihren Pseudonymen oder doch ihren echten Namen – Markéta Stroblová und Markus Schlögl – ansprechen sollen. Als Markéta alias Little Caprice dann im Gespräch auch noch erzählt, dass sie auf Instagram weder als die private Markéta, noch als die öffentlich bekannte Version von Little Caprice unterwegs sei, sondern stattdessen als eine Art private Version der öffentlichen Little Caprice, ist die Verwirrung perfekt. Welche ihrer zwei bis drei Persönlichkeiten war die echtere? Und macht die Antwort wirklich einen Unterschied, solange Menschen wie Markéta alle ihre Rollen natürlich ausleben?

Hier könnt ihr weiterlesen!

Josef × Magnet

Josef Zorn

Josef Zorn beschäftigt sich als Games- und Film-Redakteur seit Jahren mit allen möglichen Aspekten von Pop- und Netzkultur. Nebenbei ist er Filmemacher , Spieleentwickler und spielt in mindestens einer Band.

Beitrag
teilen
URL in die Zwischenablage kopiert
Beitrag
teilen
URL in die Zwischenablage kopiert