fbpx
Your API key has been restricted. You may upgrade your key at https://www.weatherbit.io.

Izmišljen je “otrov” za veštačku inteligenciju? Naučnik tvrdi da uništava modele koji ga upotrebe

Veštačka inteligencija

Treniranje veštačke inteligencije i dalje je u nekoj vrsti sive zone, pa su neki algoritmi trenirani na sadržaju koji je zaštićen autorskim pravima. Brojni umetnici i muzičari pozivaju na hitnu regulativu kako bi se takvoj praksi stalo na kraj, jer ne žele da se njihova dela iskorišćavaju za treniranje AI u platformama poput DALL-E, Stable Diffusiona i Midjourneyja. Protiv takvih kompanija koje razvijaju AI platforme za pretvaranje tekstualnih upita u slike već je podignuto više tužbi zbog korišćenja podataka zaštićenog autorskim pravima pa će biti zanimljivo videti njihov ishod.

Profesor sa Univerziteta u Čikagu Ben Žao pronašao je potencijalno rešenje za ovaj problem. U saradnji s kolegama napravio je poseban alat nazvan Nightshade koji, kako su to komentarisali mediji, može “da otruje” podatke za treniranje AI.

Nightshade bi čak mogao i da uništi buduće modele pomenutih AI platformi za stvaranje slika na osnovu tekstualnog upita, objasnili su na The Vergeu. Naime ovaj alat menja digitalne slike, odnosno piksele u okviru njih tako da ta promena nije vidljiva ljudskom oku, dok one izgledaju drugačije AI modelima – npr. neku običnu sliku oni mogu da prepoznaju kao kubističku apstrakciju tako da ne mogu da imitiraju originalnu sliku.

Zato bi AI model na određeni tekstualni upit mogao da da potpunu drugačiju sliku u odnosu na želje korisnika? U jednom slučaju, AI generativni modeli na koje je primijenjen ovaj alat prikazali su slike mačaka, iako je tekstualni upit bio vezan za psa. Umeren broj takvih napada upotrebom Nightshadea, smatra Žao, može da destabilizuje opšte funkcije u generativnom modelu pretvaranja tekstualnog upita u sliku, tako da AI platforme više ne bi mogle da stvaraju smislene slike zasnovane na željama korisnika.

Žao i ekipa koja je stvorila Nightshade kažu kako bi kreatori sadržaja trebali da koriste ovu “otrovnu pilulu” kao poslednju liniju odbrane protiv onih koji bez dozvole koriste njihov sadržaj za treniranje AI. Takođe, veruje da će i kompanije koje treniraju svoje modele na sadržaju zaštićenom autorskim pravima promeniti svoje navike i da takav sadržaj više neće iskorišćavati za svoje AI modele.

Tagovi:
Pročitajte još: