Deepfake: Izazov digitalnog doba i zašto je medijska pismenost važnija nego ikad
U svetu u kojem se informacije kreću brže nego što stižemo da ih proverimo, „deepfake” tehnologija postaje jedan od najvećih izazova savremenog informisanja. Reč je o veštački generisanim video i audio sadržajima koji izgledaju toliko uverljivo da mnogi ljudi više ne mogu da razlikuju istinu od manipulacije (Masood, Nawaz, Malik, Javed & Irtaza, 2021).
I tu na scenu stupa medijska pismenost.
Deepfake nije samo tehnološka novotarija. On menja način na koji verujemo u sadržaj koji gledamo, način na koji ga proveravamo i razumemo.
Kratka istorija
Termin „deepfake“ pojavio se oko 2017. godine, kada je jedan korisnik Reddit-a počeo da deli AI-manipulisane eksplicitne video-snimke u kojima su lica poznatih ličnosti bila ubačena na tela glumaca u filmovima za odrasle. Od tada se tehnologija brzo razvila, postajući pristupačnija i sofisticiranija. U početku ograničena na određene niše internet zajednice, deepfake-ovi su danas prisutni u mejnstrim medijima, politici i zabavnoj industriji (Maras & Alexandrou, 2019).
Od inovacije do manipulacije
„Deepfake” tehnologija razvijena je korišćenjem metode dubokog učenja i modela sposobnih da rekreiraju nečiji izgled, pokrete ili glas (Cetinski, 2024). Iako nastala iz istraživačke radoznalosti i kreativnih potreba filmske industrije, brzo je pokazala i svoju mračnu stranu.
- Može prikazati političara kako izgovara rečenice koje nikada nije rekao, što predstavlja ozbiljnu pretnju demokratiji i javnom diskursu (Misirlis & Munawar, 2023).
- Može uverljivo imitirati glas direktora i pokrenuti lažnu finansijsku transakciju, što dovodi do prevara (Cherifi, 2025).
- Može bez saglasnosti prikazati osobu u kompromitujućem videu, ugrožavajući privatnost i bezbednost te osobe.
Zbog toga je razumevanje ove tehnologije postalo deo savremenog „digitalnog preživljavanja“.
Zašto je medijska pismenost ključna?
Medijska pismenost danas nije samo poznavanje tehnologije već i prepoznavanje šta je stvarno, a šta manipulacija. „Deepfake” nas uči da više ne verujemo svojim očima bez rezerve.
Medijski pismena osoba:
- proverava izvore,
- prepoznaje neuobičajeno ponašanje, ton i tempo govora,
- razume kako se manipuliše sadržajem,
- zna da čak i „savršeni“ snimci mogu biti lažni,
- kritički razmišlja pre deljenja sadržaja.
Ali treba biti oprezan! Pošto tehnologija napreduje svakoga dana, svi moramo biti u pripravnosti jer se ovi kriterijumi mogu ubrzo promeniti. Bilo bi neodgovorno misliti da smo pismeni jednom zauvek samo zato što smo pismeni u ovom trenutku.
„Deepfake” nas vraća osnovnim pitanjima: Ko je autor? Kako znam da je snimak autentičan? Da li postoje drugi dokazi? Ova sposobnost analize sadržaja je upravo suština medijske pismenosti u digitalnom dobu (Drobnjak, 2025).
Kako prepoznati „deepfake”? Praktični vodič za svaki dan
Iako su „deepfake” snimci sve sofisticiraniji, i dalje postoje vidljivi tragovi manipulacije. Evo znakova na koje treba obratiti pažnju:
- Oči i treptanje
Ranije generacije deepfake-ova imale su neprirodno retko treptanje; i danas se može primetiti fiksiran pogled ili neusklađenost pokreta očiju i glave (The Guardian, 2024). - Sinhronizacija usta i govora Obrati pažnju na ivice usana koje se „razlivaju“, neusklađenost između intonacije glasa i mimike, ili neobičan ritam govora (The Guardian, 2024).
- Osvetljenje i senke
„Deepfake” ponekad ne predvidi realno kako senke padaju, pa se mogu videti neprirodne promene u osvetljenju lica (Cetinski, 2024). - Predmeti oko ivica lica Prilikom ubacivanja lica na drugo telo linija oko brade ili obraza može biti mutna, pri pokretima lice može izgledati kao da proklizava, ili se može desiti treperenje slike (Cherifi, 2025).
- Neusklađeni pokreti tela
Napredniji deepfake može prikazati mikroizraze ili pokrete vrata tako da oni ne prate govor (Misirlis & Munawar, 2023). - Zvuk koji ostavlja čudan osećaj
Deepfake audio može imati neujednačen šum, previše čist zvuk bez pozadinskog ambijenta ili nagle promene tona (Masood et al., 2021). - Provera izvora
Pre nego poveruješ snimku, proveri da li ga objavljuje relevantan medij, pretraži isti događaj kod više izvora i pokušaj da nađeš originalni snimak ili kontekst (Drobnjak, 2025).
Najbolje oružje protiv „deepfake“ tehnologije i dalje je kritičko razmišljanje.
Kako se zaštititi?
- Ne moj deliti sadržaj pre provere. Velik broj manipulacija se širi jer ljudi dele „šokantne“ snimke bez razmišljanja (NUNS, 2025).
- Proveri da li ima tragova manipulacije – obrati pažnju na vizuelne i zvučne nepravilnosti (Cherifi, 2025).
- Koristi alate za detekciju. Postoje alati i forenzičke metode koji analiziraju video i zvuk i otkrivaju anomalije (Springer, 2025).
- Radi na sopstvenoj medijskoj pismenosti. Razumevanje načina na koji se sadržaj kreira – i zloupotrebljava – najbolja je dugoročna zaštita (Drobnjak, 2025).
Zaključak: Nova era zahteva nove veštine
„Deepfake” tehnologija neće nestati. Biće sve bolja, brža i dostupnija. Kako upozorava stručna literatura, to otvara važna etička, društvena i sigurnosna pitanja (Masood et al., 2021; Cherifi, 2025).
Ali to ne znači da smo bespomoćni. Što više razumemo kako se manipuliše audio-vizuelnim sadržajem, to smo otporniji na dezinformacije, prevare i zloupotrebe. Medijska pismenost postaje digitalna imunizacija i svako treba da je razvije.
Reference:
- Cetinski, A. (2024). DEEPFAKE tehnologija – predstavitvene tehnike.
- Cherifi, H. (2025). Deepfake media forensics: Status and future challenges. Journal of Imaging, 11(3), 73.https://doi.org/10.3390/jimaging11030073 PMC
- Drobnjak, J. (2025, June 10). Deepfake tehnologija – izazovi, prijetnje i prilike – tko kontrolira stvarnost? Točno.hr.Tocno
- Maras, M.-H., & Alexandrou, A. (2019). Determining Authenticity of Video Evidence in the Age of Artificial Intelligence and in the Wake of Deepfake Videos. The International Journal of Evidence & Proof, 23(3), 255-262.
- Masood, M., Nawaz, M., Malik, K. M., Javed, A., & Irtaza, A. (2021). Deepfakes Generation and Detection: State‑of‑the‑art, Open Challenges, Countermeasures, and Way Forward. arXiv. arXiv
- Misirlis, N., & Munawar, H. B. (2023). From deepfake to deep useful: Risks and opportunities through a systematic literature review. arXiv. arXiv
- Springer, A. (2025). A survey on multimedia-enabled deepfake detection: State-of-the-art tools and techniques, emerging trends, current challenges & limitations, and future directions. Discover Computing. SpringerLink
- Udruženje novinara Srbije & Centar za razvoj omladinskog aktivizma (2025). Većina ljudi ne može da prepozna deepfake sadržaj. rs. Euronews.rs
- NUNS, I. K. (2025, 05/06). Dipfejk – sofisticirana tehnologija za kreiranje dezinformacija. NUNS