Tyrimas: Standartiniai AI modeliai gali pašalinti vaizdų apsaugą

AI technologijos kelia grėsmę vaizdų apsaugai

Naujausias tyrimas atskleidė, kad standartiniai vaizdų generavimo AI modeliai, tokie kaip Stable Diffusion ir DALL-E, gali būti panaudoti kaip universalūs „de-triukšmiai“. Jie gali pašalinti apsauginius triukšmus, kurie dažnai pridedami prie vaizdų siekiant apsaugoti nuo kopijavimo, stiliaus imitacijos ar gilių klastotių manipuliacijų.

Apsaugos triukšmo pažeidžiamumas

Daugelis paslaugų naudoja nematomą triukšmą, kad apsaugotų vaizdus, tačiau šis tyrimas rodo, kad šios apsaugos gali būti lengvai pažeidžiamos. Tyrėjai nustatė, kad norint pašalinti šią apsaugą nereikia specializuotų atakų – užtenka paprašyti bet kurio generatyvinio modelio „patobulinti“ vaizdą.

Tyrimo eksperimentas

Tyrimo metu buvo išbandyti 8 atvejai, naudojant 6 skirtingas apsaugos sistemas. Visais atvejais standartiniai modeliai veikė geriau nei anksčiau sukurtos specializuotos atakos, išlaikydami aukštą vaizdo kokybę priešininkui.

Ateities iššūkiai vaizdų apsaugai

Dabartinės apsaugos schemos gali suteikti klaidingą saugumo jausmą. Mokslininkai teigia, kad bet kokia ateities vaizdų apsaugos sistema turi būti įvertinta atsižvelgiant į atakas, kurias gali atlikti lengvai prieinami generatyviniai AI įrankiai.

Daugiau informacijos apie tyrimą galima rasti čia.



Visos naujienos kategorijoje Mokslas

Mūsų svetainėje nėra reklamų ir slapukų. Patinka turinys? Padėkite mums augti – pasidalinkite su draugais!