Was sind Deep Fakes und wie funktionieren sie?

Deepfakes sind künstlich erzeugte Inhalte (z.B. Videos), die sich von realem Material kaum unterscheiden lassen. Ihre Erstellung basiert auf künstlicher Intelligenz, genauer neuronalen Netzen, und kann aus existierendem Material neue Versionen mit anderen Personen, Sprachen oder Inhalten erstellen. Die Gefahr von Deepfakes ist dabei nicht gering: Sowohl für Privatpersonen als auch die Politik können gefälschte Inhalte schnell Schaden anrichten. In diesem Artikel diskutieren wir die Methodik hinter Deepfakes, die Gefahr, aber auch die Maßnahmen die dagegen eingesetzt werden.

Was sind Deepfakes? 

Deepfakes sind Videos, Bilder oder auch Ton, der künstlich erzeugt wurde und keine Wahrheitsgrundlage hat. Der Begriff „Deepfakes“, auf Deutsch „tiefe Fälschungen“, setzt sich zusammen aus den Begriffen „Deep Learning„, eine Methode im maschinellen Lernen und „Fakes“, einem Kunstbegriff für Fälschungen.

Deep Learning ist die technologische Basis für die Erstellung von Deep Fakes, also werden künstliche neuronale Netze eingesetzt, um von vorhandenem Material (zum Beispiel Videomaterial) ein sogenanntes Modell zu kreieren, welches dann neues Material erzeugen kann. Da das Modell ein abstraktes Konzept darstellt, bedeutet dies auch, dass dadurch komplett neues und nicht-geplantes Material erstellt werden kann. 

Der Ursprung von Deepfakes sind autoencoders oder Generative Aversial Networks (GANs), die in 2013 konzeptualisiert wurden. Erst 2017 erfuhr das Deepfake-Konzept breitere Aufmerksamkeit und der Begriff  wurde gebräuchlich. Während die generelle Idee von Medienfälschung keine neue ist, gehen Deepfakes über die herkömmlichen Methoden weit hinaus, da damit sehr komplexe und realistische Fakes wie zum Beispiel Austausch der Stimme oder des Körpers möglich gemacht werden.

Wie kann man Deepfakes erstellen?

Im Grunde benötigt man für Deepfakes nur Basismaterial, von dem das neuronale Netz lernen kann. Dies können vorhandene Videos oder Bilder sein. Umso höher die Datenmengen (Big Data), umso besser, denn basierend auf mehr Information kann der Algorithmus besser lernen. Ausführlichere Information wie die algorithmische Grundlage von künstlichen neuronalen Netzen ist, findet ihr in unserem Artikel „Künstliche neuronale Netze und Deep Learning einfach erklärt„.

Da allerdings nur wenige sich mit der Programmierung von Autoencodern beschäftigen möchten, gibt es inzwischen auch mehrere Programme die es möglich machen, Deepfakes ohne großes Vorwissen zu erstellen. An vorderster Front sind momentan chinesische Apps wie „Zao“ oder der kommerzielle Anbieter „Deepfakes web β„. Generell gilt es jedoch, Vorsicht walten zu lassen, da der Hype rund um Deepfakes auch viele zwielichtige Anbieter hervorbringt, die die Neugierde von Menschen gerne ausnutzen und Viren installieren oder ähnliches.

Welche Einsatzzwecke gibt es für Deepfakes?

Generell können Deepfakes nicht nur für „Fakes“ genutzt werden, sondern haben auch sinnvolle Anwendungsgebiete. Die Generierung von Inhalt könnte, falls von entsprechend hoher Qualität, vor allem im Bereich der Medienproduktion einen Umbruch erwirken. GANs werden beispielsweise bereits jetzt als kreativer Input für Produktdesign und -entwicklung eingesetzt. Auch große Firmen wie Zalando nutzen generative Netze um ihre Kleidung nicht mehr in alle Farben fotografieren und pflegen zu müssen, sondern mittels Machine Learning schnell und einfach visuell zu erstellen.

Aber auch für Deepfakes im speziellen gibt es zahlreiche Ideen. Zum Beispiel das „Nachfilmen“ in der Filmproduktion könnte mittels Deepfakes realisiert werden, statt aufwendig alle Schauspieler an wiederaufgebaute Sets zu schaffen. Aber noch viel interessanter finde ich den Gedanken, dass Filme vielleicht bald vollpersonalisiert sind. Die Handlung bleibt bestehen, aber die Schauspieler kann man beliebig austauschen.

Welche Gefahr geht von Deepfakes aus?

Aber nebst dieser positiven Betrachtung geht von Deepfakes im Status Quo erstmal erhebliche Gefahr aus. Das sieht man alleine daran, wo sich das erste, hauptsächliche Anwendungsgebiet formiert hat: Die Erstellung von unechter Pornographie. Viele Prominente wurden inzwischen in zweifelhafte Filme „projiziert“, um der Vorstellung von manchen Personen auch visuell zu entsprechen. Umgemünzt auf den Privatbereich kann dies auch schnell zum generellen Problem werden, wenn plötzlich Nacktbilder oder Pornos auftauchen von Menschen, die damit nichts zu tun haben. Die Dementier-Mühe und der Versuch der Strafverfolgung stehen selbstverständlich in so einem Fall in keinem Verhältnis zur Einfachheit, wie solche Deepfakes produziert und verbreitet werden können.

Während in diesen Fällen eher Privatpersonen den Schaden tragen würden, gibt es auch keine gesamtgesellschaftliche Gefahr bei Deepfakes. Bisher sind Fakenews quasi nur in Schriftform zu finden, aber mittels Deep Learning können bald Videos oder Audioaufnahmen die Runde machen, die täuschend echt wirken. Ein einfaches Beispiel wäre die Verkündigung von Angela Merkel von Schutzzöllen, Grenzzschließungen oder sogar einer Kriegserklärung. Selbst wenn langfristig identifiziert werden könnte, dass es sich um Fakes handelt, ist der initiale Schaden nicht auszudenken.

Und das schlimmste ist im Endeffekt die Umkehr der Problematik. Wenn wir in Zukunft in einer Welt leben, in der alles ein Deepfake sein kann, werden viele Menschen Probleme haben, die Realität davon unterscheiden zu können. So kann es dazu kommen, dass Menschen reale Dinge als Fake abtun würden, die sie sehr wohl betreffen oder andere Dinge glauben, obwohl sie Fake sind. Diese Undurchsichtigkeit der Wahrheit wird somit nicht nur sozial, wirtschaftlich und gesellschaftlich Auswirkungen haben, sondern auch ganz klar psychisch.

Welche Maßnahmen gibt es gegen Deepfakes?

Wie zu erkennen ist, können Deepfakes ernstzunehmende Probleme auslösen. Im Groben gibt es drei Stoßrichtungen bei der Reaktion auf Deepfakes: Rechtliches, Detektion und Verbreitung. Der erste Punkt ist das Vorgehen, dass diejenigen die Deepfakes erstellen und verbreiten zur Rechenschaft gezogen werden können. Die Richtlinien und entsprechend auch Strafen variieren stark: Die USA zum Beispiel stellt zum Beispiel explizit Deepfakes mit Bezug zu Personen des öffentlichen Lebens oder Fakes mit sexuellen Darstellungen unter ein Verbot. China hingegen erfordert die Kennzeichnung von Deepfakes – sonst drohen empfindliche Strafen für Verbreiter und Plattform gleichermaßen. In anderen Staaten wie Kanada und dem Vereinigten Königreich gelten weniger spezifische Regeln, Deepfakes sind aber gleichermaßen strafrechtlich verfolgbar.

Die zweite Herangehensweise ist die Detektion von Deepfakes mittels anderer Algorithmen. Hierzu werden einfache Ungereimtheiten wie falsche Helligkeiten oder Schatten in Videos detektiert und somit als Fake gekennzeichnet. Selbstverständlich kommt auch hier wieder Deep Learning zum Einsatz. Während die Idee, Algorithmen gegen Algorithmen kämpfen zu lassen sehr futuristisch-Interessant ist, gleicht diese Herangehensweise jedoch einem technologischen Wettrüsten. So können sich Deepfake-Algorithmen stetig verbessern, indem sie die Deepfake-Detektions-Algorithmen nutzen um eigene Fehler auszubessern, was wiederum eine Aktion auf Seiten der Detektion erfordert. 

Die dritte Herangehensweise ist ein systematischer Ausschluss der Verbreitung, vor allem mittels Verbot durch Nutzungsbedingungen auf Plattformen. Reddit, Twitter, Discord und Vice sind nur ein paar Plattformen, die inzwischen Deepfakes mindestens teilweise ausschließen und Verbreitende Nutzer sperren. Da diese Herangehensweise ebenso auf der Detektion beruht, ist auch dies keine endgültige Lösung.

Als vierte, oft missachtete und daher kaum diskutierte Stoßrichtung möchten wir jedoch die Wissensvermittlung hinzufügen. Wenn man das Bewusstsein über Methoden, Möglichkeiten und somit Existenz von Deepfakes fördert, schafft man es gegebenenfalls auch, dass der mündige Bürger achtsamer mit sowohl eigenem Material (zum Training) als auch fremden Material (als menschliche Detektion) umgeht. Wenn man es also schafft, die digitale Kompetenz der Internetnutzer zu erhöhen und das Prinzip „nicht alles glauben“ etabliert, kann der Schaden, den Deepfakes anrichten, besser begrenzt werden als durch andere Methoden.

Weitere Informationen zum Thema Deepfakes

Wer ein Deepfake-Netzwerk in Aktion sehen möchte, für den haben wir ein kurzes Video herausgesucht das sowohl Theorie als auch Praxis in der Erstellung von Deepfakes darstellt:

Weitere Beiträge zum Thema Data Driven Company direkt per E-Mail bekommen: