Previous Slide Icon Next Slide Icon
Play Daily Button Pause Daily Button
Exit Daily Button

Kontrowersyjna aplikacja tworząca fake’owe zdjęcia nagich kobiet staje się coraz popularniejsza

DeepNude przy pomocy sztucznej inteligencji „rozbiera” kobiety, tworząc ich akty. Wygenerowano już ponad 100 tys. zdjęć – niektóre są wulgarne, inne przedstawiają nieletnie dziewczyny. Rozsyłane są przez komunikator Telegram i mimo licznych zgłoszeń nie są usuwane ani blokowane.
.get_the_title().

Anonimowy programista stworzył w ubiegłym roku aplikację o nazwie DeepNude. W opisie określa swoje dzieło jako „supermoc, o której zawsze marzyłeś”. To pierwsza tego typu aplikacja osadzona w bocie chatroomu. Członkowie czatu mogą wysyłać swoje żądania, a bot generuje zdjęcia i rozsyła je do dziesiątek tysięcy subskrybentów każdego dnia. Co ciekawe, aplikacja nie działa w przypadku zdjęć mężczyzn. Nie jest darmowa ani nawet tania jak na aplikację – kosztuje 50 dolarów. Sam twórca wyłączył ją kilka godzin po publikacji, pisząc w oświadczeniu, że „świat nie jest gotowy na DeepNude”.

Ostatnio aplikacja przeżywa swój renesans, a jej popularność gwałtownie wzrosła.

Liczba fałszywych aktów wysłanych za pośrednictwem Telegramu wzrosła o 198 proc. w okresie od kwietnia do czerwca tego roku. Ta statystyka potwierdza przesłanki o tym, że pornografia była częstą formą zemsty w czasie pierwszego lockdownu. W tym czasie przypadki nadużyć związanych z intymnymi zdjęciami miały miejsce o 22 proc. częściej niż wcześniej. Zdjęcia wygenerowane przez DeepNude mogą być wykorzystywane chociażby w celu szantażowania pokrzywdzonej kobiety.

Anonimowa ankieta przeprowadzona w jednej z konwersacji Telegramu, która gromadziła subskrybentów DeepNude, wykazała, że 70 proc. użytkowników pochodziło z Rosji, Ukrainy, Białorusi, Kazachstanu i krajów byłego ZSRR. Wiele ankietowanych osób przyznało, że o bocie dowiedziało się z rosyjskiego serwisu społecznościowego VK. Telegram nie odpowiada na liczne zgłoszenia użytkowników oraz wiadomość od Sensity – firmy, zajmującej się wykrywaniem niebezpieczeństw w internecie. Z powodu braku jakiejkolwiek reakcji bot działa jak wcześniej. W związku z tym w dalszym ciągu nie wiadomo, kto może posiadać i udostępniać fake’owe zdjęcia.

Pod koniec października bot stał się niedostępny na iPhonie i iPadzie – wyświetlany był komunikat, że narusza on wytyczne Apple.

Część fake’owych aktów można odróżnić od tych prawdziwych, jednak szybki rozwój takiej technologii świadczy o tym, że może się to niebawem zmienić, a zdjęcia będą wyglądać coraz bardziej wiarygodnie. Coraz popularniejsza staje się technologia deepfake, która przy pomocy sztucznej inteligencji tworzy chociażby fałszywe nagrania wypowiadających się znanych osób. Niestety narzędzia do jej wykrywania wciąż są mało skuteczne.

Zdjęcie główne: unsplash.com
Tekst: Marta Zinkiewicz

FUTOPIA