Deep Fakes, Manipulationen von Videos bei der ein Gesicht durch
ein anderes Ausgetauscht wird, ist viel schwieriger als eine
Fotoshop Manipulation. Die Software muss ein Gesicht so gut kennen,
dass sie auch Situationen darstellen kann, die nicht gefilmt worden
sind. Es werden immer mehr Fortschritte gemacht. Hier ist ein
neues Beispiel. Was erstaunlich ist, dass die Software die Manipulation
in Echtzeit machen kann. Bisher brauchte das lange Rechnungen. Allerdings
ist das Gesicht in der Demo auch eher grob dargestellt, wie in einem alten
Computer Spiel. Noch könnte man damit niemanden überzeugen.
Man kann aber vorhersehen, dass in nicht all zu langer Zeit, Deep Fakes
möglich werden, die nur von Spezialisten als solche erkannt werden
können.
Heise:
Entwicklern des Münchener IT-Beratungshauses TNG Technology
Consulting ist es gelungen, eine Software zu entwickeln, mit der
sich sogenannte Deep Fakes in Echtzeit erzeugen lassen. Dadurch ist es
möglich, Live-Aufnahmen von Webcams derart zu verfälschen, dass
das Gesicht vor der Kamera mit dem einer anderen Person vertauscht wird.
Deep Fakes sind auf Basis Künstlicher Intelligenz erzeugte
Fälschungen von Bildern oder Videos, die täuschend echt wirken
können. Im häufigsten Anwendungsfall werden dabei Gesichter
ausgetauscht und somit die Illusion erzeugt, eine andere Person in einem
Video zu sehen.
Dabei wird die Mimik eines vor einer Kamera stehenden Menschen erkannt und
auf die Gesichter bekannter Persönlichkeiten übertragen. Im
finalen Videostream entfernt die Software zunächst das
Eingabe-Gesicht und ersetzt es dann mit dem Deep Fake. Der von TNG
vorgestellte Prototyp ist eine Art Spiegel, in dem man zwar die Mimik
wiedererkennt, aber eben nicht das Gesicht.
Durch die Anwendung verschiedener Techniken aus dem Bereich der
Computer Vision und neuronalen Netze werden hier Gesichter in der
Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe
integriert. Durch diese Technik ist es möglich, täuschend
echte Imitationen auf andere Personen zu projizieren.
Zum Einsatz kamen in dem Projekt mit der Deep-Learning-Bibliothek Keras
trainierte Autoencoder-Netze. Trainiert wurden diese mittels sogenannter
GANs (Generative Adversarial Networks). Zusätzlich verwendeten die
Forscher verschiedene andere neuronale Netze zur Gesichtserkennung und
Segmentierung.