Występujesz w filmach porno, choć tego nie wiesz, czyli jak AI wprowadziło nas w erę fake porn

Czy potrzebna będzie nowelizacja prawa, by móc skutecznie wyplenić upokarzające dla neutralnych osób przeróbki filmów dla dorosłych?
.get_the_title().

Niedawno pisaliśmy o tym, jak potężny globalny zasięg ma rynek pornograficzny. Wśród milionów filmów czy GIF-ów dających upust przeróżnym ludzkim fantazjom, stopniowo, wraz z rozwojem AI, postępuje jednak bardzo niebezpieczny trend. Mowa tu o tzw. fake porno, czyli wiarygodnie wyglądających nagraniach, na których twarze aktorów produkcji dla dorosłych zostają zamienione na wizerunki dowolnych osób. Najczęściej ich ofiarą padają celebrytki oraz byli partnerzy, co stanowi wyjątkowo sadystyczną okazję do zemsty. Wystarczy udostępnić w sieci swe selfie, które trafi w nieodpowiednie ręce.

Zjawisko w ostatnim czasie bardzo przybrało na sile. W dużej mierze winny jest rozwój technologii, która umożliwia dokładne, często trudne do wychwycenia dla niewprawnego oka, mapowanie jednej twarzy na drugą.

Częstotliwość pojawiania się nowych materiałów i popularność (ponad 76 tys. regularnych obserwatorów) kategorii Deepfakes w słynnym serwisie Reddit, dobrze ilustruje, z jakim zagrożeniem mamy do czynienia.

Co więcej, programy dostępne są na wyciągnięcie ręki. Na początku filmy takie realizowano najczęściej przy wykorzystaniu różnych rozwiązań open-source’owych (otwarte oprogramowanie). Dziś cała „zabawa” dużo bardziej się scentralizowała i skorzystać można np. z aplikacji (FakeApp), która poprzez mozolny proces konwersji (algorytm oparty na nauce maszynowej), trwający od 8 do 12 godzin, sama przekształca film w oparciu o zdjęcie bazowe.

Głośna sprawa dotycząca takiego wulgarnego nadużycia wizerunku związana była ze znaną z „Wonder Woman” Gal Gadot, o czym więcej przeczytacie (i zobaczycie bezpieczny fragment przerobionego filmu, mogąc samodzielnie zweryfikować, czy zorientowalibyście się, że to fake) tutaj. Ofiarami takich modyfikacji są oczywiście najczęściej najbardziej medialne postaci ze świata rozrywki, jak choćby Scarlett Johansson, Emma Watson, Paris Hilton, Katy Perry czy Kim Kardashian.

Co mogą zrobić serwisy, na których pojawiają się takie treści? Kwestia jest problematyczna, bo bezpośrednio nie podlegają one pod zapisy prawne dotyczące ochrony prywatności.

Tak potężni gracze jak Reddit i Gfycat zaczęli już usuwać fake porno. Wydaje się, że to dopiero początek globalnej wojny z takimi materiałami.

Nasze warunki korzystania z serwisu zezwalają nam na usuwanie treści, do których mamy zastrzeżenia. I tak właśnie robimy z fake porno – mówią rzecznicy Gfycad.

Z kolei Reddit wśród czynności zagrożonych banem wymienia publikowanie zdjęć i filmów jakiejkolwiek osoby nago lub zaangażowanej w dowolny akt seksualny bez jej zgody.

Wszystko to wymaga jednak prawnego doprecyzowania z myślą o nowych technologicznych zagrożeniach. Wydaje się, że prędzej czy później na największych portalach hostingowych (i nie tylko) pojawi się regulaminowy zapis o banowaniu także za fake porn i revenge porn.

Tekst: WM
Źródło: Dazed Digital