Deepfake: la sfida dell’era digitale e perché la Media Literacy è, oggi, più importante che mai
In un mondo in cui le informazioni viaggiano più velocemente di quanto riusciamo a verificarle, la tecnologia deepfakesta diventando una delle maggiori sfide del moderno scambio di informazioni. Si tratta di contenuti video e audio generati artificialmente che sembrano così realistici che molte persone non riescono più a distinguere la verità dalla manipolazione (Masood, Nawaz, Malik, Javed & Irtaza, 2021).
Ed è qui che entra in gioco l’alfabetizzazione mediatica.
I deepfake non sono solo un’innovazione tecnologica. Cambiano il modo in cui costruiamo la fiducia, verifichiamo e comprendiamo i contenuti che guardiamo.
Breve storia
Il termine “deepfake” è apparso intorno al 2017, quando un utente di Reddit ha iniziato a condividere video espliciti manipolati dall’intelligenza artificiale in cui i volti di celebrità venivano sovrapposti ai corpi di attori di film per adulti. Da allora, la tecnologia si è sviluppata rapidamente, diventando più accessibile e sofisticata. Inizialmente limitati a comunità Internet di nicchia, i deepfake sono ora presenti nei media mainstream, nella politica e nell’industria dell’intrattenimento (Maras & Alexandrou, 2019).
Dall’innovazione alla manipolazione
La tecnologia deepfake è stata sviluppata utilizzando il deep learning e modelli in grado di ricreare l’aspetto, i movimenti o la voce di una persona (Cetinski, 2024). Sebbene nata dalla curiosità della ricerca e dalle esigenze creative dell’industria cinematografica, ha rapidamente mostrato il suo lato oscuro.
- Può mostrare un politico che pronuncia frasi che non ha mai detto, il che rappresenta una grave minaccia per la democrazia e il dibattito pubblico (Misirlis & Munawar, 2023).
- Può imitare in modo plausibile la voce di un amministratore delegato e avviare una transazione finanziaria fraudolenta, portando a una truffa (Cherifi, 2025).
- Può inserire qualcuno in un video compromettente senza il suo consenso, mettendo in pericolo la privacy e la sicurezza di quella persona.
Pertanto, comprendere questa tecnologia è diventato parte della moderna “sopravvivenza digitale”.
Perché l’alfabetizzazione mediatica è fondamentale?
Oggi, l’alfabetizzazione mediatica non significa solo sapere come usare la tecnologia, ma anche riconoscere ciò che è reale e ciò che è manipolazione. Il deepfake ci insegna a non fidarci più ciecamente.
Una persona alfabetizzata nei media:
- controlla le fonti,
- riconosce comportamenti, toni e ritmi di discorso insoliti,
- capisce come manipolare i contenuti,
- sa che anche le riprese “perfette” possono essere false,
- riflette criticamente prima di condividere contenuti.
Ma attenzione! Poiché la tecnologia avanza ogni giorno, tutti noi dobbiamo stare all’erta e questi criteri potrebbero presto cambiare. Sarebbe irresponsabile pensare di essere competenti per sempre, solo perché lo siamo in questo momento.
Il deepfake ci riporta alle domande fondamentali: chi è l’autore? Come faccio a sapere che il filmato è autentico? Ci sono altre prove? Questa capacità di analizzare i contenuti è l’essenza dell’alfabetizzazione mediatica nell’era digitale (Drobnjak, 2025).
Come riconoscere i deepfake? Una guida pratica per tutti i giorni
Sebbene le registrazioni deepfake siano sempre più sofisticate, ci sono ancora tracce visibili di manipolazione. Ecco i segnali a cui prestare attenzione:
- Occhi e battito delle palpebre
Le prime generazioni di deepfake avevano un battito delle palpebre innaturalmente raro; anche oggi si può notare uno sguardo fisso o una discrepanza tra i movimenti degli occhi e quelli della testa (The Guardian, 2024). - Bocca e sincronizzazione del parlato
Prestare attenzione ai bordi delle labbra che “sbavano”, alla discrepanza tra l’intonazione della voce e le espressioni facciali o a un ritmo di parlato insolito (The Guardian, 2024). - Illuminazione e ombre
I deepfake a volte non prevedono in modo realistico la caduta delle ombre, quindi si possono notare cambiamenti innaturali nell’illuminazione del viso (Cetinski, 2024). - Artefatti intorno ai bordi del viso
Quando si inserisce un viso su un altro corpo, può esserci una linea sfocata intorno al mento o alla guancia, uno scivolamento del viso durante i movimenti o uno sfarfallio dell’immagine (Cherifi, 2025). - Movimenti del corpo non coordinati
Un deepfake più avanzato può mostrare microespressioni o movimenti del collo in modo non correlato al discorso (Misirlis & Munawar, 2023). - Il suono che “non quadra”
L’audio dei deepfake può presentare rumori irregolari, un suono eccessivamente pulito senza ambiente di fondo o cambiamenti improvvisi di tonalità (Masood et al., 2021). - Controllare la fonte
Prima di credere alla registrazione, controllate se è stata pubblicata dai media competenti, cercate lo stesso evento da diverse fonti e cercate di trovare la registrazione originale o il contesto (Drobnjak, 2025).
L’arma migliore contro i deepfake rimane il pensiero critico.
Come proteggersi?
- Non condividere contenuti prima di averli verificati. Un gran numero di manipolazioni si diffonde perché le persone condividono filmati “scioccanti” senza riflettere (NUNS, 2025).
- Verifica la presenza di tracce di manipolazione: presta attenzione alle irregolarità visive e sonore (Cherifi, 2025).
- Utilizza strumenti di rilevamento. Esistono strumenti e metodi forensi che analizzano video e audio e rilevano anomalie (Springer, 2025).
- Lavora sulla tua alfabetizzazione mediatica. Capire come vengono creati i contenuti – e come vengono utilizzati in modo improprio – è la migliore protezione a lungo termine (Drobnjak, 2025).
Conclusione: una nuova era richiede nuove competenze
La tecnologia deepfake non scomparirà. Diventerà migliore, più veloce e più accessibile. Come avverte la letteratura specialistica, ciò comporta un significativo dilemma etico, sociale e di sicurezza (Masood et al., 2021; Cherifi, 2025).
Ma questo non significa che siamo impotenti. Più comprendiamo come vengono manipolati i contenuti audiovisivi, più siamo resistenti alla disinformazione, alle frodi e agli abusi. L’alfabetizzazione mediatica diventa un’immunizzazione digitale e tutti dovrebbero svilupparla.
Riferimenti:
- Cetinski, A. (2024). DEEPFAKE tehnologija – predstavitvene tehnike.
- Cherifi, H. (2025). Deepfake media forensics: Status and future challenges. Journal of Imaging, 11(3), 73.https://doi.org/10.3390/jimaging11030073 PMC
- Drobnjak, J. (2025, June 10). Deepfake tehnologija – izazovi, prijetnje i prilike – tko kontrolira stvarnost? Točno.hr.Tocno
- Maras, M.-H., & Alexandrou, A. (2019). Determining Authenticity of Video Evidence in the Age of Artificial Intelligence and in the Wake of Deepfake Videos. The International Journal of Evidence & Proof, 23(3), 255-262.
- Masood, M., Nawaz, M., Malik, K. M., Javed, A., & Irtaza, A. (2021). Deepfakes Generation and Detection: State‑of‑the‑art, Open Challenges, Countermeasures, and Way Forward. arXiv. arXiv
- Misirlis, N., & Munawar, H. B. (2023). From deepfake to deep useful: Risks and opportunities through a systematic literature review. arXiv. arXiv
- Springer, A. (2025). A survey on multimedia-enabled deepfake detection: State-of-the-art tools and techniques, emerging trends, current challenges & limitations, and future directions. Discover Computing. SpringerLink
- Udruženje novinara Srbije & Centar za razvoj omladinskog aktivizma (2025). Većina ljudi ne može da prepozna deepfake sadržaj. rs. Euronews.rs
- NUNS, I. K. (2025, 05/06). Dipfejk – sofisticirana tehnologija za kreiranje dezinformacija. NUNS