Društvene mreže se usijale zbog novog trenda na mreži X. Neprimereno menjanje fotografija žena uz Grok AI izazvalo je snažno uznemirenje među korisnicima i otvorilo ozbiljna pitanja o granicama generativne veštačke inteligencije.
Naizgled bezazlene fotografije stvarnih osoba, objavljene u svakodnevnom kontekstu, postaju povod za javne zahteve da se njihov izgled digitalno menja. U fokusu su zahtevi za promenu odeće, poze ili ugla snimanja, često sa izraženom seksualizovanom namerom. Sve se odvija javno, ispod originalnih objava, što dodatno pojačava vidljivost i pritisak.
Kako funkcioniše generativno menjanje fotografija
Za razliku od ranijih digitalnih manipulacija, ovde se ne radi o klasičnom „lepljenju“ lica na drugo telo ili video. Generativni modeli koriste originalnu fotografiju samo kao početni vizuelni signal. Zatim proizvode novu sliku od nule, predviđajući kako bi scena mogla da izgleda nakon tražene izmene.
Model ne koristi stvarni snimak iz drugog izvora. On statistički generiše novu verziju slike, piksel po piksel. Upravo zbog toga rezultat često deluje uverljivo, iako tehnički ne predstavlja direktan prikaz stvarne situacije.
Zašto ovo nije klasičan deepfake
Iako se termin deepfake često koristi u javnosti, ovde je reč o drugačijoj tehnologiji. Nema zamene identiteta u postojećem eksplicitnom materijalu, niti montaže gotovih snimaka. Umesto toga, nastaje potpuno nova slika koja nikada nije postojala.
Međutim, posledice su slične. Osoba je predstavljena u kontekstu koji nije odobrila i koji može biti ponižavajući. Tehnička razlika ne umanjuje štetu, naročito kada se sadržaj javno deli i ostaje trajno dostupan.
Uznemirenje korisnika zbog javne zloupotrebe
Posebnu težinu daje činjenica da se ceo proces odvija javno. Za razliku od ranijih alata, koji su zahtevali odlazak na specijalizovane platforme, ovde je tehnologija ugrađena u društvenu mrežu koju koriste milioni ljudi svakog dana.
Sam čin javnog označavanja modela ispod tuđe fotografije pretvara zloupotrebu u kolektivni događaj. Sadržaj se automatski širi među pratiocima, čime se narušava privatnost i ugled osobe na slici.
Objavljivanje ličnih fotografija u novoj realnosti
Generativni modeli za obradu slika postoje na internetu već duže vreme. Međutim, njihova dostupnost i jednostavna upotreba sada su znatno bliži običnim korisnicima. Upravo ta dostupnost menja razmere problema.
Fotografije koje su ranije smatrane bezopasnim sada mogu postati sirovina za neprimerene izmene. Time se dodatno komplikuje pitanje lične bezbednosti u digitalnom prostoru i odgovornosti prilikom deljenja privatnih sadržaja.
Šira bezbednosna dilema veštačke inteligencije
Za razliku od jezičkih modela, koji uglavnom utiču na korisnika koji ih koristi, vizuelni modeli direktno utiču na treća lica. Jedna objavljena fotografija može biti dovoljna da pokrene lanac zloupotrebe koji je teško kontrolisati.
Ovaj slučaj pokazuje koliko se brzo tehnologija može približiti masovnoj upotrebi, ali i koliko su posledice ozbiljne kada se granice zloupotrebe ne prepoznaju na vreme.


