Was die Augen sehen, entspricht der Realität – oder doch nicht? Mithilfe neuester Technologie können Videoinhalte immer einfacher verändert werden. Die Zahlen zu sogenannten Deepfakes lassen dabei aufhorchen: Alleine in den letzten beiden Jahren hat sich die Anzahl manipulierter Videos im Internet verdoppelt.
Videos repräsentierten für lange Zeit Authentizität. Die Kamera hat das gefilmt, was auch wirklich passiert. Im Gegensatz zu Fotografien, welche schon vor dem technologischen Zeitalter manipuliert worden sind, haben die Menschen bei bewegtem Bild das Gefühl, die Realität gezeigt zu bekommen. Das Aufkommen von Deepfake-Videos beweisen aber, dass man die Authentizität von Filmmaterial heutzutage infrage stellen sollte.
Maschinell und intelligent
Unter Deepfakes versteht man manipulierte Videos, in denen Dritte Gesichter von Personen austauschen oder ihnen Worte in den Mund legen, die sie so nie gesagt haben. Der Begriff «Deepfake» setzt sich dabei aus den Worten «deep learning» und «fake» zusammen. Solche Videos entstehen maschinell, mithilfe künstlicher Intelligenz.
Mit viel Rechenaufwand und angesammelten Datenmengen erschafft die Maschine ein künstliches Video und kreiert eine täuschend echte Kopie der Stimme der betroffenen Person. Konkret wird dafür bestehendes Bild- oder Videomaterial gesammelt und übereinander gelegt, bis ein vermeintlich realistisches Ergebnis erkennbar ist.
Von den Toten auferstanden
Auch wenn an der Technologie schon länger herumgebastelt wurde, kamen Deepfake-Videos im Jahr 2015 das erste Mal gross ins Gespräch. In «Fast & Furious 7» wurde der verstorbene Schauspieler Paul Walker wieder zum Leben erweckt. Dank ausgefeilter Technologie und zahlreichen Kameras, welche aus verschiedensten Winkeln filmten, projizierte die Filmcrew das Gesicht des verstorbenen Schauspielers auf ein Schauspiel-Double, Walkers Bruder.
Das Ergebnis liess sich sehen, war aber noch nicht perfekt und als Zuschauer bemerkte man gewisse Ungereimtheiten. Jedoch zeigte Walkers Beispiel, dass das Potenzial der Technologie noch weiter ausgeschöpft werden kann.
Zwei Seiten einer Medaille
Nebst der Filmbranche interessieren sich auch die Gamingindustrie und immer mehr Einzelpersonen für die Technologie hinter Deepfakes. Berühmte Schauspieler wurden beispielsweise bereits für Kassenschlager der Gamingindustrie wie «Beyond: Two Souls» oder «Detroit: Become Human» in künstliche Spielwelten versetzt.
Zudem sieht man Deepfakes auch immer häufiger auf YouTube. Content-Creator produzieren und veröffentlichen diese dort für harmlose und belustigende Zwecke. Dabei versuchen sie oftmals, Gesichter von Schauspieler in Szenen anderer Filme zu projizieren. In diesem Sinne ist der Unterhaltungswert von Deepfakes unbestritten. Mit der richtigen Mimik und Gestik, können so Unbekannte zu berühmten Schauspielern werden.
Doch es gibt auch Schattenseiten. Die Beliebtheit von Deepfakes ist auch auf die Pornoindustrie zurückzuführen. In Onlineforen und in sozialen Netzwerken versuchten Nutzer vor ein paar Jahren, Gesichter von Prominenten auf die Körper von Pornodarstellerinnen zu projizieren. Die Beliebtheit solcher Videos war gross, weshalb die Software dahinter auch ständig weiterentwickelt worden ist. Auch wenn sich Internetseiten bemühten, solche Deepfake-Videos zu entfernen und entsprechende Accounts zu sperren, war der Ball bereits ins Rollen gekommen.
Deepfakes als Waffe
Das Internet macht es zwielichtigen Personen also möglich, praktisch jedes Gesicht nachstellen zu können. Dies tun sie immer öfters, um Menschen zu schaden.
Anita Sarkeesian, eine kanadische Medienkritikerin und Frauenrechtlerin, spricht sich regelmässig öffentlich gegen die Objektivierung und Sexualisierung von Frauen in Videospielen aus. Infolgedessen wurde sie Opfer einer Hetzkampagne im Internet: Unbekannte haben ihr Gesicht in zahlreiche Pornofilme eingefügt und ihr aktiv auf sozialen Plattformen Drohungen zugesandt.
Der Fall Rana Ayyub
Auch in einem anderen Fall in Indien wurde das Gesicht der Investigativ-Journalistin Rana Ayyub für Deepfake-Pornos missbraucht. Grund dafür waren Artikel, mit welchen sie auf Missbräuche gegen Frauen aufmerksam gemacht hatte. Deepfake-Videos werden also immer öfters als Waffe eingesetzt. Dadurch, dass praktisch jeder Mensch heutzutage in sozialen Netzwerken aktiv ist, besteht die Gefahr, selbst zur Zielscheibe zu werden.
Bedenkliche Beispiele
Besorgniserregend ist die Technologie vor allem mit Blick auf die Politik. In Ländern, wo die politische Lage ohnehin angespannt ist, können Deepfakes grossen Schaden anrichten.
Beispielhaft hierfür ist das afrikanische Land Gabun: Dessen Präsident Ali Bongo war aufgrund schwerer Krankheit monatelang nicht in der Öffentlichkeit aufgetreten. Ein Video, in welchem er im Dezember 2018 dann zu seinem Volk sprach und dieses beschwichtigte, dass es ihm gut geht, wurde von seinen politischen Gegnern als Deepfake bezeichnet. Dies löste eine Hysterie aus, welche letztlich in einem Militärputsch endete. Im Nachhinein stellte sich dann heraus, dass das Video kein Deepfake war. Alleine der Verdacht genügte also, um das Land in eine politische Krise zu stürzen.
Jordan Peele als Barack Obama
2018 sorgte auch ein anderes Deepfake-Video für Furore. Darin ist der ehemalige US-amerikanische Präsident Barack Obama zu sehen – welcher Donald Trump prompt als kompletten Vollidioten bezeichnet. Hinter dem Video steckt der Regisseur und Schauspieler Jordan Peele. Er wollte damit auf die Gefahren manipulierter Videos hinweisen. Und er zeigte gleichzeitig, wie politische Personen für Deepfakes missbraucht werden können.
Eine Gefahr für die Demokratie?
Die Bedrohung durch Deepfakes ist real. Experten wie Hao Li, ein Deepfake-Pionier aus Deutschland, sind aber der Meinung, dass die Technologie noch zu wenig ausgefeilt ist, um auch Profis täuschen zu können. Die Technologie zur Erkennung von Deepfakes ist zudem auf dem Vormarsch – Analysen mithilfe künstlicher Intelligenz entlarven innerhalb weniger Sekunden Deepfake-Videos. Doch er warnt auch, dass die Technologie schneller voranschreitet, als zu Beginn angenommen.
Diese Technologie entwickelt sich rasend schnell. Jeder kann damit heute jemand anderes werden, und das sogar in Echtzeit. Hao Li, Deepfake-Experte und CEO von Pinscreen
Der Effekt, dass man als Zuschauer das Gefühl hat, nichts mehr glauben zu können, ist seiner Meinung nach eine grössere Bedrohung. Vor allem für eine Demokratie. Ein Blick auf die Vereinigten Staaten oder Brasilien bestätigt Li’s Einschätzung. Entsprechend genügt es, die Glaubwürdigkeit politischer Gegner und deren Tatsachen infrage zu stellen – ohne dabei selbst faktentreu zu argumentieren. Wenn ohnehin alles gelogen ist, stört es niemanden, wenn man die Wahrheit als Lüge diskreditiert.
Wie weiss man, was echt ist und was nicht?
Beim Videokonsum sollte man heutzutage deshalb aufmerksamer sein. Grundsätzlich kann man anhand verschiedener Eckpunkten die Authentizität eines Videos testen (siehe Infobox). Die Technologie rund um Deepfake-Videos ist faszinierend und zeigt, zu was künstliche Intelligenz heutzutage bereits fähig ist. Umso mehr erfordert das digitale Zeitalter aber auch, dass die Öffentlichkeit zunehmend kritischer Medien konsumiert. Personen mit kriminellen Absichten müssen daran gehindert werden, mit Deepfakes Massen zu manipulieren und so womöglich irreversible Schäden zu verursachen.
Wie überprüfe ich die Echtheit eines Videos?
-
- Woher stammt das Video? Ist die Quelle des Videos vertrauenswürdig?
-
- Ist der Inhalt des Videos auch aus anderen Quellen entnehmbar? (Mehrquellenprinzip)
-
- Sind auf visueller Ebene Ungereimtheiten zu erkennen? Blinzelt eine Person abnormal oder gar nicht? Sind die Bewegungen und Gesichtszüge einer Person unnatürlich?
- Wie klingt die Stimme? Ist die Tonlage anders als gewohnt und bewegen sich die Lippen nicht synchron?
Text Dominic Meier
Schreibe einen Kommentar