Kontrowersyjna aplikacja tworząca fake’owe zdjęcia nagich kobiet staje się coraz popularniejsza
Anonimowy programista stworzył w ubiegłym roku aplikację o nazwie DeepNude. W opisie określa swoje dzieło jako „supermoc, o której zawsze marzyłeś”. To pierwsza tego typu aplikacja osadzona w bocie chatroomu. Członkowie czatu mogą wysyłać swoje żądania, a bot generuje zdjęcia i rozsyła je do dziesiątek tysięcy subskrybentów każdego dnia. Co ciekawe, aplikacja nie działa w przypadku zdjęć mężczyzn. Nie jest darmowa ani nawet tania jak na aplikację – kosztuje 50 dolarów. Sam twórca wyłączył ją kilka godzin po publikacji, pisząc w oświadczeniu, że „świat nie jest gotowy na DeepNude”.
Ostatnio aplikacja przeżywa swój renesans, a jej popularność gwałtownie wzrosła.
Liczba fałszywych aktów wysłanych za pośrednictwem Telegramu wzrosła o 198 proc. w okresie od kwietnia do czerwca tego roku. Ta statystyka potwierdza przesłanki o tym, że pornografia była częstą formą zemsty w czasie pierwszego lockdownu. W tym czasie przypadki nadużyć związanych z intymnymi zdjęciami miały miejsce o 22 proc. częściej niż wcześniej. Zdjęcia wygenerowane przez DeepNude mogą być wykorzystywane chociażby w celu szantażowania pokrzywdzonej kobiety.
Horrifying deepfake app called DeepNude realistically removes the clothing of any woman with a single click. It costs $50 and only works on women. (The black bars were added after using the app.) pic.twitter.com/5KS36FPTqZ
— Mike Sington (@MikeSington) June 27, 2019
Anonimowa ankieta przeprowadzona w jednej z konwersacji Telegramu, która gromadziła subskrybentów DeepNude, wykazała, że 70 proc. użytkowników pochodziło z Rosji, Ukrainy, Białorusi, Kazachstanu i krajów byłego ZSRR. Wiele ankietowanych osób przyznało, że o bocie dowiedziało się z rosyjskiego serwisu społecznościowego VK. Telegram nie odpowiada na liczne zgłoszenia użytkowników oraz wiadomość od Sensity – firmy, zajmującej się wykrywaniem niebezpieczeństw w internecie. Z powodu braku jakiejkolwiek reakcji bot działa jak wcześniej. W związku z tym w dalszym ciągu nie wiadomo, kto może posiadać i udostępniać fake’owe zdjęcia.
Pod koniec października bot stał się niedostępny na iPhonie i iPadzie – wyświetlany był komunikat, że narusza on wytyczne Apple.
Część fake’owych aktów można odróżnić od tych prawdziwych, jednak szybki rozwój takiej technologii świadczy o tym, że może się to niebawem zmienić, a zdjęcia będą wyglądać coraz bardziej wiarygodnie. Coraz popularniejsza staje się technologia deepfake, która przy pomocy sztucznej inteligencji tworzy chociażby fałszywe nagrania wypowiadających się znanych osób. Niestety narzędzia do jej wykrywania wciąż są mało skuteczne.
Zdjęcie główne: unsplash.com
Tekst: Marta Zinkiewicz