28.08.19 – Josef Zorn

Wochenlang hat sich Josef für MAGNET ausschließlich mit der Frage „Heast, wos is … Deepfake?“ beschäftigt.
Hier schreibt er seine Gedanken während der Entstehung der Doku nieder. Und lernt, dass das Problem weniger die Technik, als die Menschen dahinter sind.

Wohin uns der Anfang unserer Reise schon geführt hat und welche Gedanken und Eindrücke dabei entstanden sind, lest ihr im ersten Teil des Artikels. Aber wichtiger als die harten Fakten sind in vielen Fällen unsere Einstellungen dazu. Das gilt leider auch für die Frage, was falsch oder echt ist. Was uns zum nächsten gedanklichen Gegensatzpaar auf unserer Reise führt.

Corinna Milborn, Sender-Chefin von Puls 4, sieht die Verantwortung ganz klar bei Social-Media-Unternehmen wie Facebook, um Fakes aufzuspüren und auch entsprechend zu kennzeichnen. In unserem Gespräch gab sie sich äußerst kritisch gegenüber dem Medien-Giganten und seinen Einfluss auf die öffentliche Meinung. Vor allem, weil Facebook nach wie vor nach dem Mediengesetz keine Verantwortung für seine Inhalte übernehmen will. Aber wenn Deepfakes viral werden, weil wir sie eben gern anklicken, und gleichzeitig niemand Schuld sein will, landen wir schnell in einer Zwickmühle.

Gleichzeitig weist Milborn auch darauf hin, dass „unsere Gehirne einfach nicht dafür gemacht sind“, mit Fakten und Fakes richtig umzugehen. „Man hört dann: Mag sein, dass er das nicht gesagt hat – aber er hätte es ja sagen können“, fasst sie zusammen. Dass Menschen nicht unbedingt offen für Fakten und Gegenbeweise sind – vor allem dann nicht, wenn diese der bereits gefassten Meinung widersprechen –, liegt also weniger am Internet als daran, wie unser Kopf funktioniert. Der New Yorker hat dieses Phänomen schon vor einigen Jahren in einem augenöffnenden Artikel mit dem Titel „Why Facts Don’t Change Our Minds“ (auf Deutsch „Warum Fakten unsere Meinung nicht ändern“) beschrieben. Fürchten wir uns also besser nicht vor den Fakes, sondern vor echten Menschen, die es nicht besser wissen wollen.

Magnet-DeepfakeKunst-Content_Bild-01-1280x720 © Karo Pernegger

Der Tech-Journalist Jakob Steinschaden, Gründer der Plattform www.trendingtopics.at, ist ebenfalls der Meinung, dass Social-Media-Betreiber hier in die Verantwortung genommen werden müssen. So wie es auf Facebook aktuell bereits einen kleinen Info-Button für mehr Auskunft zu den Websites hinter Postings gibt, so sollten in Zukunft auch Deepfake-Videos gekennzeichnet werden; was natürlich die Erkennung der Fakes und die Beschäftigung mit dem Thema voraussetzt.

Ein Punkt, in dem sich Wissenschaft und Medien erstaunlich einig sind, ist die polarisierende Wirkung von Deepfakes, die hauptsächlich deshalb eine Gefahr darstellt, weil sie die Technologie dahinter in Verruf bringt. Die ist nämlich eigentlich für sehr viele positive Einsatzgebiete eine enorme Bereicherung. Egal, ob es um Deepfakes von Smart-City-Anwendungen oder um Deepfake-Crashtest-Dummys beim Testen von selbstfahrenden Autos geht. Das erklärt uns Anna Frühstück, eine österreichische A.I.-Forscherin, die in Dubai derzeit Deepfakes im Bereich Gaming einsetzt.

Ein ernüchternder Einblick der ganz anderen Art war, was Anna Frühstück während unseres Skype-Calls über den universitären Ethik-Unterricht erzählte. Hier wird weniger über moralische Fragen philosophiert, als vielmehr über juristische Absicherungs- und Schuldfragen, im Sinne von: Wer ist haftbar, wenn eine Künstliche Intelligenz verrückt spielt, das Programmier-Team oder die Projektleitung? Wie auch bei der Deepfake-Erkennung und der Frage, wie wir die Technik wo und wofür genau einsetzen, sollte man auch im Bereich Ethikunterricht stärker auf die menschliche Auseinandersetzung pochen, wenn wir auch moralisch und gesellschaftlich gewappnet sein wollen. Aber vielleicht ist das auch einfach nur meine Meinung.

Magnet-DeepfakeKunst-Content_Bild-04-1280x720 © Karo Pernegger

Die alte Vorstellung der von Maschinen versklavten Menschheit aus Terminator und Matrix amüsiert die Forscherin Anna Frühstück. „A.I.s müssen immer noch genau vom Menschen trainiert, gelenkt und mit Daten gefüttert werden, um zu funktionieren“, sagt sie. Anna weist auch darauf hin, dass bei all den unglaublich realistisch aussehenden Videos und Bildern, die von Künstlichen Intelligenzen generiert wurden, natürlich auch nur die schönsten und erfolgreichsten Resultate den Weg in die Öffentlichkeit finden: „Wenn man mal die ganzen verdrehten und fehlerhaften Experimente sieht, sinkt die Angst vor einer Roboter-Herrschaft sehr schnell.“

Aber wie gesagt, Fakten alleine ändern unsere Fantasien noch nicht. Düstere Tech-Visionen und Sci-Fi-Voraussagen beschäftigen uns seit dem Beginn der Zeit und stehen auch heute noch hoch im Kurs. Matthias Strolz, der aus seiner Zeit in der österreichischen Politik einige Erfahrungen mit Polemik und Gut-Böse-Narrativen gemacht hat, zählt in unserem Gespräch einige dieser Zukunftsvisionen auf. Chatbots und ihre Einsatzbereiche würden sich ausweiten, meinte er; außerdem würden wir in Zukunft vermutlich alle Sex mit Robotern haben, so wie wir heute schon Technologien im Schlafzimmer verwenden, die vor 50 Jahren noch eine astreine Horrorvision abgegeben hätten. Wer weiß.

Besonders spannend fand ich, zu erfahren, was Matthias über Facebook und die Veränderung der Plattform seit 2014 denkt. Die damals spannende und praktische Kommunikationsplattform wurde laut Strolz bald zum zweckentfremdeten Werkzeug der Falschinformation. „Ohne Facebook wären wir damals nicht ins Parlament gekommen“, ist sich Strolz sicher. „Aber klar ist auch, dass es damals noch um den Content ging. Heute gewinnst du mit dem größten Werbebudget.“

Auch The Great Hack, die große Netflix-Doku über Online-Datenmissbrauch am Beispiel Cambridge Analytica, konfrontiert uns mit diesen Fragen: Werde ich bereits heute durch geschicktes Targeting von gezielter Information im Internet manipuliert? Treffe ich meine Entscheidungen überhaupt noch selbst? Und wie abhängig sind wir von unseren Werkzeugen und Kommunikationsgeräten eigentlich geworden?

Aber nicht nur die Manipulation, auch die Erkennung von ebensolcher wird immer besser. Zu verdanken ist das unter anderem Henry Ajder. Er ist Entwickler der Software Deeptrace, die Deepfakes erkennen soll. Was uns auch zurück zum Schlagwort „Abhängigkeit“ führt. Vielmehr als „tech-affin“ ist unsere Gesellschaft nämlich heute „tech-abhängig“; und zwar in allen Bereichen unserer Kultur. Wir sind aufgeschmissen ohne die Maschinen, die unsere Arbeitsplätze, Freizeitbeschäftigung und Lebenskomfort geworden sind. Technologie ist also so etwas wie unsere Nachtsichtbrille, ohne die wir im vorsintflutlichen Dunkel tappen würden.

Das ist aber vielleicht gar kein so großes Problem, wie es zuerst klingt. Wir müssen einfach nur genauso viel in die konstruktiven, positiven Entwicklungen stecken, wie in die destruktiven, lustigen oder schädlichen Aspekte unserer Technologien. Womit wir wieder bei Henry Ajder wären.

Henry definiert seine Arbeit wortwörtlich als Teil eines Wettrüstens zwischen den „Bösen“ – also den Scammern und den Trollen, die unsere Kanäle mit Revenge-Pornos und Fake-News überschwemmen – und den „Guten“, die diesen Content bekämpfen und erkennen wollen. So wie Henry das mit Deeptrace tut. Besserer Schutz führt wiederum zu besseren Fakes, die wiederum zu besserem Schutz vor Fakes führen. Deepfakes vs. Deeptrace, sozusagen. Lustigerweise ist das exakt die Funktionsweise der zweiseitigen GAN-Systeme, die Deepfakes herstellen: das Gegeneinanderspielen und Abgleichen von Gegensätzen. Was Deepfake-Systeme also innerhalb von sich selbst machen (simulieren und erkennen), machen wir wiederum mit ihnen. Und so dreht sich der Kreis endlos weiter.

Magnet-DeepfakeKunst-Content_Bild-05-1280x720 © Karo Pernegger

Deepfakes oder Derpfakes, die derzeit wie Memes das Netz durchfluten, könnten irgendwann ein genauso normaler Teil unseres Social-Media-Auftritts werden, wie Instagram-Filter: „Schau, das bin ich im neuen Beyoncé-Video!“

Aber gehen wir noch einen Schritt weiter: Vielleicht lassen sich über besonders schlaue rekurrente Netzwerke irgendwann ganze Persönlichkeiten so gut deepfaken, dass wir diese wie Avatare im Netz verwenden und statt uns Tätigkeiten wie Einkäufe erledigen lassen können. Vielleicht werden Persönlichkeitskopien, die gegeneinander antreten, irgendwann die nächste große Samstagabendshow.

Eine Gesellschaft, in der alle Menschen langsam aber sicher ihren Tech-Klonen das Steuer überlassen, würde freilich vor ganz neuen Herausforderungen stehen. Schon heute ist die Frage, wer oder was eigentlich unser Ich ist, immer schwieriger zu beantworten. Jeder Mensch bastelt sich seine Persönlichkeit aus unzähligen Puzzle-Teilen. Diese Facetten, die wir heute über alle möglichen Websites und Freizeitaktivitäten verstreuen, ergeben nur gemeinsam unsere „Patchwork-Identität“. Diese wiederum ist in einigen Fällen der Ursprung von Persönlichkeitsstörungen.

Aber auch ganz ohne Störung sind wir bereits heute mit Sicherheit mehr als ein Mensch. Wissenschaftlich gesehen ist jeder und jede von uns mindestens zwei Personen in einem; denn auch geistig völlig gesunde Menschen haben zwei Gehirnhälften, die zum Teil unabhängig voneinander agieren (nur dass eine sich der anderen unterordnet und „uns“ einfach machen lässt).

Identitätskrisen gibt es also jetzt schon. Wie viel schlimmer würde das alles erst mit perfekten Deepfakes von uns allen werden? Duncan Trussell, US-Comedian und Autor mit philosophischen Anwandlungen, nannte dieses Konzept die „Schiz-o-calypse“. Außerdem denkt Trussell laut darüber nach, ob die Menschheit womöglich nur ein evolutionärer Zwischenschritt sei, um Künstliche Intelligenzen zu erschaffen, denen vielleicht die eigentliche Zukunft des Lebens auf Erden gehört. Soweit, so dystopisch.

Aber viel wichtiger als die Frage, ob uns der Untergang auf genau diese oder irgendeine andere kreative (weil von Menschen erdachte) Art bevorsteht, ist ein ganz anderer Aspekt. Irrationale Ängste und abenteuerlich düstere Was-wäre-wenn-Szenarien erfüllen für uns Menschen einen ganz praktischen Nutzen. So können wir spielerisch Gefahren durchdenken, erkennen und auch verhindern.

Wie unsere Doku klar zeigt, gibt es viele positive Einsatzbereiche von Künstlicher Intelligenz und Deep-Learning. Was wir nicht verstehen und was wir fürchten, fasziniert uns auch. Die Begeisterung der Forscherinnen und Forscher in diesem jungen Feld ist inspirierend; alle, mit denen ich gesprochen habe, hatten dasselbe Leuchten in den Augen. Und durch apokalyptische Zukunftsvisionen lernen wir – vielleicht auch nur unterbewusst – Respekt vor der Technologie, die wir nicht verstehen.

Deepfakes sind, was auch immer wir sie sein lassen. Eine Gefahr, eine Bedrohung für die Demokratie – oder eben ein Anlass, um sich kritisch mit sich selbst und der Welt auseinanderzusetzen. Vielleicht führt diese Auseinandersetzung zu einem Revival der Privatsphäre. Junge Menschen ziehen sich schon heute zurück vom öffentlichen Posten zurück und wandern stattdessen ab in WhatsApp-Gruppen und auf Snapchat; und selbst Mark Zuckerberg sieht private Kommunikation in Form des Facebook-Messengers als die Zukunft.

Selbstdarstellung und Privatsphäre, Untergang und Fortschritt, Gefahr und Chance, Mensch und Maschine – die Gegensätze lassen sich endlos fortsetzen. Aber genau wie bei Magneten (oder bei MAGNET) gilt auch: Gegensätze ziehen sich an. Genau wie bei GANs, den Netzwerken, die Deepfakes gleichzeitig verbessern und aufdecken, treffen auch in allen menschlichen Überlegungen und Gedanken immer zwei Seiten solange aufeinander, bis am Ende etwas Schlaueres herauskommt.

Wir werden zusammen mit KI und der Technologie wachsen – und zum Teil wohl auch wirklich mit ihr verwachsen. Wir werden uns arrangieren, wir werden reagieren, und wir werden uns anpassen, so wie es die Menschheit schon immer getan hat. Vielleicht sind wir auf dem Weg zur „Singularität“, der allmächtigen Künstlichen Intelligenz, die uns verschlingt und uns in ihr Meer aus Daten taucht. Vielleicht werden Maschinen immer nur so schlau, wie der Umgang mit ihnen bleiben. Das Schöne ist, dass wir es erst am Ende wissen können. Und der Weg dorthin ist gesäumt mit spannenden Gegensätzen.

Wir sehen uns in der Unendlichkeit.

Hier geht’s zur MAGNET-Doku „Heast, wos is … Deepfake?“

Josef × Magnet

Josef Zorn

Josef Zorn beschäftigt sich als Games- und Film-Redakteur seit Jahren mit allen möglichen Aspekten von Pop- und Netzkultur. Nebenbei ist er Filmemacher , Spieleentwickler und spielt in mindestens einer Band.

Beitrag
teilen
URL in die Zwischenablage kopiert
Beitrag
teilen
URL in die Zwischenablage kopiert