Narzędzie, które zatruwa obrazy, pozwoli artystom walczyć ze sztuczną inteligencją

Do szkolenia modeli AI często wykorzystuje się pobrane z internetu obrazy, nie pytając o zgodę ich twórców. Dzięki temu programowi może się to zmienić.
.get_the_title().

Nie jest tajemnicą, że do szkolenia sztucznej inteligencji wykorzystuje się materiały tworzone przez artystów, nie pytając ich o zgodę. Ben Zhao, profesor informatyki na Uniwersytecie w Chicago, wraz z grupą naukowców stworzył narzędzie, które ma pomóc artystom w tej nierównej walce. Nosi ono nazwę Nightshade i 'zatruwa’ dzieła artystów, zmieniając układ pikseli w sposób niewidzialny dla ludzkiego oka.

Gdy sztuczną inteligencję nakarmi się wieloma takimi zatrutymi obrazami, można uszkodzić cały model.

fot. technologyreview.com

Naukowcy testowali to w generatorze obrazów SDXL i okazało się, ze po wprowadzeniu dzieł, w które ingerował Nightgale, modelowi wszystko się pomieszało – samochód uznał za krowę, psa za kota, a kapelusz za ciasto. Gdy prosiło się o to, by stworzył coś w stylu kreskówkowym, generował impresjonistyczne obrazy. Zatruty model nie radził sobie również za dobrze z naśladowaniem stylów konkretnych artystów. Aby ta metoda sprawdziła się w przypadku dużych modeli AI, potrzebne są setki, a nawet tysiące zatrutych obrazów.

Jeśli artyści faktycznie zaczęliby korzystać z Nightgale, osoby szkolące sztuczną inteligencję zastanowiłyby się dwa razy, zanim zdecydowałyby się nakarmić ją grafikami z internetu.

Dzięki temu narzędziu firmy zaczęłyby respektować prawa autorskie i własność intelektualną artystów.

Tekst: NS

TU I TERAZ