Skip to main content
let's make IT happen

Deepfakes oder: "Wer hat wirklich die Rede vor dem Kongress gehalten?"

Mit der rasanten Entwicklung von Machine Learning Technologien ist ein Phänomen entstanden, das unter dem Namen Deepfake bekannt ist. Unter Deepfake versteht man Medieninhalte (Fotos, Videos, Audioaufnahmen) irgendwelcher Art, die durch Anwendung von Maschine Learning Methoden sehr realistisch verfälscht worden sind.

Zum Beispiel ist es heute kein grösseres Problem mehr, in der Aufnahme der Rede eines Politikers das Gesicht durch Ihres zu ersetzen. Der Originaltext kann dabei durch beliebigen Inhalt ersetzt werden. Alles sieht perfekt aus, bis zur kleinsten Hand- und Mundbewegung. Auch die Stimme ist Ihre - falls der Produzent des Deepfakes ein paar wenige Wortfetzen von Ihnen zur Verfügung hatte. Spezialisierte künstliche neuronale Netzwerke sind heute in der Lage, mit sehr wenig Trainingsmaterial so perfekte Deepfakes zu erstellen, dass sie sogar für Experten nicht mehr zweifelsfrei erkennbar sind. Hat man so ein trainiertes neuronales Netz zur Verfügung, ist die Produktion von Deepfakes leicht und von jedem mit entsprechenden Interessen machbar. Oft sind trainierte Netze im Internet frei verfügbar. Das stellt in der heutigen Social Media Welt ein nicht zu unterschätzendes Gefahrenpotential dar.

Bewusst und eventuell sogar auf verschiedenen Kanälen gleichzeitig platzierte Fake-Inhalte könnten in kürzester Zeit nicht absehbare soziale, politische oder ökonomische Folgen haben. Es liegt daher nahe, zur Erkennung von Deepfakes, wiederum Machine Learning einzusetzen. Dieser Ansatz wird auch erfolgreich verfolgt. Neuronale Netze werden dabei mit Fake-Inhalten trainiert und erreichen oft Erkennungsraten von 98% und mehr.

Leider ist aber auch die Gegenseite nicht untätig. Es gibt heute Deepfake Netze, die während des Trainings die Existenz von Deepfake-Detektoren miteinbeziehen und kleine Anomalien in die Fakes einbauen, die Detektor-Netze komplett in die Irre führen. Diese Anomalien nützen Schwachstellen neuronaler Netze aus und sind so subtil, dass sie für einen Menschen nicht sichtbar sind. Es wird uns in Zukunft also nicht erspart bleiben, bei Medieninhalten auch die Möglichkeit eines Deepfakes in Betracht zu ziehen. Die Identifikation von seriösen und vertrauenswürdigen Informationsquellen wird dabei immer wichtiger werden.

https://de.wikipedia.org/wiki/Deepfake
https://arxiv.org/abs/2002.12749
https://aliaksandrsiarohin.github.io/first-order-model-website/
http://www.niessnerlab.org/projects/roessler2019faceforensicspp.html

 

Oliver Wespi, Senior Software Entwickler, INTEGRATE Informatik AG