Wir leben in einer multimedialen Welt, in der wir rund um die Uhr auf global produzierte Inhalte zugreifen können. Videos am Smartphone, am Smart-TV und am PC.

Die Kritischen unter uns wissen natürlich, dass in der heutigen Zeit Propaganda zum Alltag gehört. Die Manipulation unserer Wahrnehmung durch Verzerrung und Unterdrückung von Inhalten ist State of the Art in der Medienindustrie.

Technologie entwickelt sich in vielen Bereichen unseres Lebens unaufhaltsam weiter. So auch im Bereich des Motion Capture. So nennt man es, wenn mittels eines Tracking Verfahrens die Bewegung von diversen Dingen, meist Lebewesen, erfasst wird. In der Unterhaltungsbranche ist dieses Verfahren seit langem Gang und Gebe. Die Produktion von Filmen wie Avatar – Aufbruch nach Pandora 3D [3D Blu-ray] oder Warcraft: The Beginning hat die Technologie vorangetrieben. Das weiterentwickelte Verfahren nennt sich Performance Capture. Die Animation von Gollum, beispielsweise, war eine der ersten, breitenwirksam beachteten Figuren, bei denen das Performance Capture zum Einsatz kam.

Bei diesem Verfahren werden sogenannte Capture Marker auf dem Körper und im Gesicht des Schauspielers verteilt, die von Kameras aufgenommen werden. Die Aufnahmen von Gesten, Mimik un Bewegung werden mittels Software auf den Charakter der animierten Figur übertragen, und erwecken somit diese zum Leben. Durch den Einsatz von Hochleistungsrechnern und der Entwicklung anderer Technologien, wie z.B. Augmented Reality, wurde es den Regisseuren möglich, mit der Kamera durch eine Kombination aus realem und virtuellem Filmset zu gleiten. Avatar beschreibt in der Entwicklung dieser Technologie sicher einen Meilenstein.

Doch nun haben Forscher der Universität in Stanford einen neuen Meilenstein gesetzt. Sie haben ein Verfahren entwickelt, bei dem sie RGB-Videos von Zielpersonen in Echtzeit manipulieren.

Eindrucksvoll wird das Ganze hier veranschaulicht:

In dem Video sehen wir eine Person, die als Quelle dient, die mittels einer normalen Webcam aufgenommen wird. Im Hintergrund läuft die Aufnahme der Zielperson in einem Monitor. Die Mimik und Gestik der aufgezeichneten Quellen-Person wird mittels der entwickelten Software auf das Gesicht der Zielperson in dem Videomaterial projiziert. Die Software errechnet also so etwas, wie einen glaubwürdigen Schnitt der Gesten, Mimik und Bewegung von Quellen- und Zielperson. Fantastischerweise auf einem sehr hohen Niveau und noch dazu in Echtzeit.

Die Technologie nennt sich Face2Face: Real-time Face Capture and Reenactment of RGB Videos und wurde von dem Team, bestehend aus  Justus Thies, Michael Zollhöfer, Marc Stamminger, Christian Theobalt, Matthias Nießner  im Juni dieses Jahres eindrucksvoll vorgestellt. Für die Interessierten unter uns, hier der Link zum Whitepaper.

Fazit:

Wenn wir uns das eindrucksvolle Ergebnis ansehen, müsste klar werden: Spätestens mit heute sollten wir uns vor Augen halten, dass was wir sehen, nicht mehr unbedingt als wahr einzustufen ist. Auch wenn das schwer fällt. Der Zauberer von Oz ist zurück, vollgepackt mit fantastischer Technologie. Wenn wir also eine Live-Schaltung zu Putin verfolgen, dann muss es nicht unbedingt Putin sein, der da zu uns spricht, oder dessen Mimik wir hier sehen.

In Verbindung mit anderen Technologien, kommen erschreckende Varianten der Anwendungen auf uns zu, die sich nicht nur in der Unterhaltungsindustrie durchsetzen werden. Regierungen oder Institutionen, könnten diese Technik missbrauchen um Falschmeldungen in Echtzeit zu lancieren, um Beweise zu fälschen, oder einfach nur um Verwirrung zu stiften. Und wenn wir uns ehrlich sind, ist es ziemlich wahrscheinlich, dass die Technologie des Real-time Face Captures schon lange bei den Nachrichtendiensten entwickelt oder eingesetzt wurde.

Und wenn man noch weiter gehen möchte, dann würde Face2Face Capture in Kombination mit diversen Projektionstechniken, wie im sagenumwobenen Projekt Bluebeam der U.S. Regierung, einer Fake Alieninvasion den notwendigen Realismus verleihen. Der Zauberer von Oz 2.0.

Bleibt aufmerksam und freut euch trotzdem…

Quellen:

Links:

http://www.graphics.stanford.edu/~niessner/thies2016face.html

https://www.youtube.com/watch?v=2yFQqDsk_LM


Beitragsbild: Knight Center for Journalism in the Americas, University of Texas at Austin/flickr (CC BY 2.0)

Kommentar verfassen