Nowa jakość fake video o krok. Czy światu grozi zatonięcie w hiperrealistycznych filmowych fałszywkach?

Pamiętacie przeróbkę z Barackiem Obamą? Przy Deep Video Portraits to mały pikuś.
.get_the_title().

Fake’owe materiały wideo to coraz częstsze zjawisko, na które możemy natknąć się w internecie. Pisaliśmy o tym m.in. w kontekście apokaliptycznych przemyśleń Aviva Ovadya oraz w odniesieniu do problemu fabrykowania filmów porno i przerabiania ich tak, by w miejsce aktorów niezauważalnie podstawiać celebrytów bądź… swoich ex. Techniczne możliwości niezauważalnego dla ludzkiego oka manipulowania obrazem stają się jednak coraz większe i naprawdę jest już chyba się czego bać. Wszystko to za sprawą tajemniczo brzmiącego systemu Deep Video Portraits, który zostanie szerzej zaprezentowany podczas skoncentrowanej wokół grafiki komputerowej i designu konferencji SIGGRAPH 2018 w Vancouver w dniach 12-16 sierpnia.

Czym jest owo rozwiązanie? Najprościej rzecz ujmując – swoistym kombajnem do tworzenia superrealistycznych materiałów wideo, który jednocześnie świetnie ilustruje, w jakim świecie już niedługo możemy się obudzić. Jeśli kojarzycie popularną jakiś czas temu imitacyjną przeróbkę z Barackiem Obamą – nie uchodzi już ona za żadne specjalne osiągnięcie. O ile bowiem tam wszystko rozgrywało się wokół ekspresji twarzy byłego amerykańskiego prezydenta, tak teraz sposób wykonania takiej podróbki jest w pełni kompleksowy.

Co więcej, posiadając odpowiednie oprogramowanie będzie się tego mogła podjąć każda osoba. System, za którego powstanie odpowiedzialny jest Michael Zollhoefer ze Stanford University wraz ze swoim teamem, bazuje bowiem na wykorzystaniu aktora źródłowego, czyli osoby, która mimiką i gestami dostarczy dowolnych behawioralnych wzorców, które następnie 1:1 zostaną, jakby nigdy nic, przeniesione na twarz innego „ludzkiego obiektu”, który ma tak reagować.

Można więc będzie sprawić, że np. dowolny aktor czy polityk będzie w ultrarealistyczny sposób zachowywał się na wideo tak, jak tylko mamy na to ochotę.

Do mimiki dołączają tu też takie dodatki, jak zmiana pozycji głowy, mruganie czy ruchy gałek ocznych. I tyle – cała reszta dostosowuje się sama, włącznie z dopasowanym tłem, a za jak najbardziej wiarygodny wygląd odpowiadają specjalne algorytmy, których zadaniem jest eliminacja wszelkich wizualnych błędów i niedociągnięć.

Jak działa to w praktyce? Możecie się przekonać na poniższym, nieco szokującym wideo:

Rozważa się wykorzystanie systemu Deep Video Portraits przy dubbingu do lokalnych wersji językowych filmów – do kwestii mówionych można by wtedy wreszcie idealnie dopasować także ruch ust i gesty. Na szczęście twórcy dobrze zdają sobie także sprawę z zagrożeń, a na swoim blogu Zollhoefer obawy z tym związane wyraża następująco:

„Kombinacja fotorealistycznej syntezy obrazu twarzy z jednoczesnym podszywaniem się pod głos danej osoby, może doprowadzić świat do dużej ilości fałszywych materiałów video tworzonych chociażby w celu zniesławiania ludzi bądź rozprzestrzeniania fake newsów. W tej chwili modyfikowane materiały wideo wciąż cechują się jeszcze wieloma błędami, co pozwala na łatwe wykrycie większości oszustw. Ciężko jednak przewidzieć, w którym momencie fake’owe treści staną się trudne do rozróżnienia na tle prawdziwego kontentu.

W przyszłości do wykrywania fake’ów może być wykorzystywane AI, poszukujące wzorców, które są niewidzialne dla ludzkiego oka. Ostatecznie jednak to my będziemy musieli umieć odróżniać fakty od fikcji. (…) W mojej opinii najważniejsze jest to, by ogół społeczeństwa był świadomy możliwości, jakie daje współczesna technologia w zakresie generowania i edytowania wideo. To umożliwi ludziom bardziej krytyczne myślenie o konsumowanych każdego dnia treściach wizualnych, zwłaszcza gdy nie jest znane ich źródło”.

Brzmi to wszystko trochę strasznie, tak jakbyśmy stali u progu jakiejś nowej epoki, ale miejmy nadzieję, że nad tym szaleństwem i łatwą możliwością wrabiania na wideo bogu ducha winnych ludzi w coś, czego nie zrobili, uda się utrzymać jakiś sensowny nadzór – nadzór wyzbyty jednocześnie znamion cenzury i ograniczania wolności słowa. Prawnicy pewnie nieźle się obłowią.

Tekst: WM
Źródło: Gizmodo