Kako da prepoznate fotografije i snimke koje je napravila veštačka inteligencija
Obmanjujuće fotografije, video zapisi i zvuk su sveprisutni zbog porasta i zloupotrebe alata za generativnu veštačku inteligenciju, zbog čega je ona ujedno, kako najbolja zbog drugih stvari, tako i ona najgora koja nam se trenutno dešava na internetu. Uz takav sadržaj, koji često izgleda toliko uverljivo stvarno, da se na engleskom naziva i „deepfake“, odnosno duboko lažan sadržaj u doslovnom prevodu, sve nam je teže da razlikujemo pravi i sadržaj koji je napravila veštačka inteligencija. U skladu sa tim, nastavak ovog teksta posvećen je načinima za otkrivanje AI prevara u vidu fotografija.
Ako i dalje mislite da lažni sadržaj nije toliko rasprostranjen, ne zaboravite da se veštačka inteligencija sada ogleda i kroz generatore video zapisa i slika kao što su Dall-E, Midjourney, Sora ili Windows Designer omogućavaju ljudima bez tehničkih veština da vrlo lako naprave lažne slike i video snimke, jednostavno unoseći tekstualni opis onoga što su zamislili u polje za upit četbotu.
Iako AI generisane fotografije na prvu loptu mogu da deluju bezopasno, one mogu da budu iskorišćene različitih prevara i krađa identiteta, kao naravno i za propagandu i manipulaciju javnim mnjenejm.
U ranim danima „deepfake“ sadržaja, tehnologija je bila daleko od savršene i često je ostavljala očigledne znakove manipulacije. Javnost i novinari su ukazivali na slike sa očiglednim greškama, poput ruku sa šest prstiju ili naočara sa sočivima različitog oblika.
Međutim, kako se veštačka inteligencija poboljšavala, to je postalo mnogo teže. Neke široko deljene preporuke za prepoznavanje ovakvog sadržaja – poput traženja nepravilnog načina treptanja očima u AI generisanim video zapisima – više ne stoje, rekao je Henri Ajder za novinsku agenciju Associated Press (AP), inače, osnivač konsultantske firme Latent Space Advisory i stručnjak za generativnu veštačku inteligenciju.
Ipak, postoji nekoliko stvari na koje treba obratiti pažnju, istakao je Ajder.
Klasične metode za prepoznavanje AI generisanog sadržaja
Mnoge AI generisane fotografije, posebno ljudi, imaju elektronski sjaj, „estetski efekat zaglađivanja“, koji pravi da koža izgleda neverovatno glatko, kaže Ajder. Međutim, upozorio je da kreativno podsticanje bota ponekad može da eliminiše ovaj sjaj i mnoge druge znakove AI manipulacije.
Zbog toga ne bi bilo loše da proverite konzistentnost senki i osvetljenja. Često je subjekat u jasnom fokusu i deluje ubedljivo živo, ali elementi u pozadini možda nisu tako realistični ili obrađeni.
Druga stvar na koju treba da obratite pažnju je posmatranje lica. Zamena lica je jedan od najčešćih metoda stvaranja „deepfake“ sadržaja. Stručnjaci savetuju da pažljivo pogledate ivice lica i pokušate da otkrijete da li ton kože lica odgovara ostatku glave ili tela i da li su ivice lica oštre ili mutne.
Ako sumnjate da je video snimak osobe koja govori obrađen, pogledajte njihova usta. Da li pokreti njihovih usana savršeno odgovaraju zvuku? Ajder takođe predlaže da pogledate zube. Da li su jasni ili su mutni i na neki način nisu u skladu sa tim kako izgledaju u stvarnom životu?
Kompanija za sajber bezbednost Norton ističe da algoritmi možda još uvek nisu dovoljno sofisticirani da generišu pojedinačne zube, pa nedostatak kontura za pojedinačne zube može biti dobar znak da je u pitanju sadržaj koji je generisala veštačka inteligencija.
Takođe, ponekad je veoma važan kontekst samog sadržaja. Odmah razmislite o tome da li ono što vidite ima smisla. Sajt Poynter savetuje da ako vidite javnu ličnost koja radi nešto što izgleda „preterano, nerealno ili van njenog karaktera“, to bi mogao da bude lažni, AI sadržaj.
Na primer, da li bi papa zaista nosio luksuznu jaknu bez rukava, kako je prikazano u jednoj poznatoj lažnoj fotografiji? Ako bi to i uradio, zar ne bi postojale dodatne fotografije ili video zapisi objavljeni od još ljudi i medija?
Korišćenje istog oružja: AI koja otkriva AI generisanje fotografije i snimke
Microsoft je razvio alat za autentifikaciju koji može analizirati fotografije ili video zapise i dati ocenu pouzdanosti o stepenu manipulacije analiziranim sadržajem. Takođe, Intel ima alat pod nazivom FakeCatcher koji koristi algoritme za analizu piksela slike kako bi odredio da li je ona realana ili lažna.
Uz to, postoje onlajn alati koji obećavaju da će otkriti laži ako otpremite datoteku ili podelite link sa sumnjivim materijalom. Međutim, neki su, kao što je Microsoft autentifikator, dostupni samo odabranim partnerima, a ne i javnosti. To je zato što istraživači navodno ne žele da obaveste prevarante i daju im veću prednost u trci.
Otvoren pristup AI alatima za otkrivanje lažnog sadržaja takođe može da da ljudima utisak da su to „božanske tehnologije koje mogu angažuju kritičko razmišljanje za nas“, ali zapravo treba da budemo svesni i njihovih ograničenja, nastavlja Ajder za AP.
Uz već pomenute probleme, veštačka inteligencija napreduje velikom brzinom i AI modeli se treniraju na internet podacima kako bi proizveli sve kvalitetniji sadržaj sa manje nedostataka. To znači da nema garancije da će istaknuti saveti za prepoznavanje AI generisanog sadržaja važiti i sledeće godine, ili možda čak i do kraja ove.
Obmanjujuće fotografije, video zapisi i zvuk su sveprisutni zbog porasta i zloupotrebe alata za generativnu veštačku inteligenciju, zbog čega je ona ujedno, kako najbolja zbog drugih stvari, tako i ona najgora koja nam se trenutno…
Najnovije
- BIZIT 2024: Pogledajte snimak oba konferencijska dana
- Apple MacBook Air sa OLED ekranom mogao bi biti odložen do 2027. godine
- Samsung Galaxy S24 među deset najprodavanijih telefona u SAD, prvi put nakon S9 serije
- Max najavljuje mere protiv deljenja lozinki, po uzoru na Netflix
- Sony ugasio Firewalk Studio | PC Press