Previous Slide Icon Next Slide Icon
Play Daily Button Pause Daily Button
Exit Daily Button

Narzędzie, które zatruwa obrazy, pozwoli artystom walczyć ze sztuczną inteligencją

Do szkolenia modeli AI często wykorzystuje się pobrane z internetu obrazy, nie pytając o zgodę ich twórców. Dzięki temu programowi może się to zmienić.
.get_the_title().

Nie jest tajemnicą, że do szkolenia sztucznej inteligencji wykorzystuje się materiały tworzone przez artystów, nie pytając ich o zgodę. Ben Zhao, profesor informatyki na Uniwersytecie w Chicago, wraz z grupą naukowców stworzył narzędzie, które ma pomóc artystom w tej nierównej walce. Nosi ono nazwę Nightshade i 'zatruwa’ dzieła artystów, zmieniając układ pikseli w sposób niewidzialny dla ludzkiego oka.

Gdy sztuczną inteligencję nakarmi się wieloma takimi zatrutymi obrazami, można uszkodzić cały model.

fot. technologyreview.com

Naukowcy testowali to w generatorze obrazów SDXL i okazało się, ze po wprowadzeniu dzieł, w które ingerował Nightgale, modelowi wszystko się pomieszało – samochód uznał za krowę, psa za kota, a kapelusz za ciasto. Gdy prosiło się o to, by stworzył coś w stylu kreskówkowym, generował impresjonistyczne obrazy. Zatruty model nie radził sobie również za dobrze z naśladowaniem stylów konkretnych artystów. Aby ta metoda sprawdziła się w przypadku dużych modeli AI, potrzebne są setki, a nawet tysiące zatrutych obrazów.

Jeśli artyści faktycznie zaczęliby korzystać z Nightgale, osoby szkolące sztuczną inteligencję zastanowiłyby się dwa razy, zanim zdecydowałyby się nakarmić ją grafikami z internetu.

Dzięki temu narzędziu firmy zaczęłyby respektować prawa autorskie i własność intelektualną artystów.

Tekst: NS

TU I TERAZ