Deepfake: la sfida dell’era digitale e perché la Media Literacy è, oggi, più importante che mai

In un mondo in cui le informazioni viaggiano più velocemente di quanto riusciamo a verificarle, la tecnologia deepfakesta diventando una delle maggiori sfide del moderno scambio di informazioni. Si tratta di contenuti video e audio generati artificialmente che sembrano così realistici che molte persone non riescono più a distinguere la verità dalla manipolazione (Masood, Nawaz, Malik, Javed & Irtaza, 2021).

Ed è qui che entra in gioco l’alfabetizzazione mediatica.

I deepfake non sono solo un’innovazione tecnologica. Cambiano il modo in cui costruiamo la fiducia, verifichiamo e comprendiamo i contenuti che guardiamo.

 

Breve storia

Il termine “deepfake” è apparso intorno al 2017, quando un utente di Reddit ha iniziato a condividere video espliciti manipolati dall’intelligenza artificiale in cui i volti di celebrità venivano sovrapposti ai corpi di attori di film per adulti. Da allora, la tecnologia si è sviluppata rapidamente, diventando più accessibile e sofisticata. Inizialmente limitati a comunità Internet di nicchia, i deepfake sono ora presenti nei media mainstream, nella politica e nell’industria dell’intrattenimento (Maras & Alexandrou, 2019).

Dall’innovazione alla manipolazione

La tecnologia deepfake è stata sviluppata utilizzando il deep learning e modelli in grado di ricreare l’aspetto, i movimenti o la voce di una persona (Cetinski, 2024). Sebbene nata dalla curiosità della ricerca e dalle esigenze creative dell’industria cinematografica, ha rapidamente mostrato il suo lato oscuro.

  • Può mostrare un politico che pronuncia frasi che non ha mai detto, il che rappresenta una grave minaccia per la democrazia e il dibattito pubblico (Misirlis & Munawar, 2023).
  • Può imitare in modo plausibile la voce di un amministratore delegato e avviare una transazione finanziaria fraudolenta, portando a una truffa (Cherifi, 2025).
  • Può inserire qualcuno in un video compromettente senza il suo consenso, mettendo in pericolo la privacy e la sicurezza di quella persona.

Pertanto, comprendere questa tecnologia è diventato parte della moderna “sopravvivenza digitale”.

Perché l’alfabetizzazione mediatica è fondamentale?

Oggi, l’alfabetizzazione mediatica non significa solo sapere come usare la tecnologia, ma anche riconoscere ciò che è reale e ciò che è manipolazione. Il deepfake ci insegna a non fidarci più ciecamente.

Una persona alfabetizzata nei media:

  • controlla le fonti,
  • riconosce comportamenti, toni e ritmi di discorso insoliti,
  • capisce come manipolare i contenuti,
  • sa che anche le riprese “perfette” possono essere false,
  • riflette criticamente prima di condividere contenuti.

 

Ma attenzione! Poiché la tecnologia avanza ogni giorno, tutti noi dobbiamo stare all’erta e questi criteri potrebbero presto cambiare. Sarebbe irresponsabile pensare di essere competenti per sempre, solo perché lo siamo in questo momento.

Il deepfake ci riporta alle domande fondamentali: chi è l’autore? Come faccio a sapere che il filmato è autentico? Ci sono altre prove? Questa capacità di analizzare i contenuti è l’essenza dell’alfabetizzazione mediatica nell’era digitale (Drobnjak, 2025).

Come riconoscere i deepfake? Una guida pratica per tutti i giorni

Sebbene le registrazioni deepfake siano sempre più sofisticate, ci sono ancora tracce visibili di manipolazione. Ecco i segnali a cui prestare attenzione:

  • Occhi e battito delle palpebre
    Le prime generazioni di deepfake avevano un battito delle palpebre innaturalmente raro; anche oggi si può notare uno sguardo fisso o una discrepanza tra i movimenti degli occhi e quelli della testa (The Guardian, 2024).
  • Bocca e sincronizzazione del parlato
    Prestare attenzione ai bordi delle labbra che “sbavano”, alla discrepanza tra l’intonazione della voce e le espressioni facciali o a un ritmo di parlato insolito (The Guardian, 2024).
  • Illuminazione e ombre
    I deepfake a volte non prevedono in modo realistico la caduta delle ombre, quindi si possono notare cambiamenti innaturali nell’illuminazione del viso (Cetinski, 2024).
  • Artefatti intorno ai bordi del viso
    Quando si inserisce un viso su un altro corpo, può esserci una linea sfocata intorno al mento o alla guancia, uno scivolamento del viso durante i movimenti o uno sfarfallio dell’immagine (Cherifi, 2025).
  • Movimenti del corpo non coordinati
    Un deepfake più avanzato può mostrare microespressioni o movimenti del collo in modo non correlato al discorso (Misirlis & Munawar, 2023).
  • Il suono che “non quadra”
    L’audio dei deepfake può presentare rumori irregolari, un suono eccessivamente pulito senza ambiente di fondo o cambiamenti improvvisi di tonalità (Masood et al., 2021).
  • Controllare la fonte
    Prima di credere alla registrazione, controllate se è stata pubblicata dai media competenti, cercate lo stesso evento da diverse fonti e cercate di trovare la registrazione originale o il contesto (Drobnjak, 2025).

L’arma migliore contro i deepfake rimane il pensiero critico.

Come proteggersi?

  • Non condividere contenuti prima di averli verificati. Un gran numero di manipolazioni si diffonde perché le persone condividono filmati “scioccanti” senza riflettere (NUNS, 2025).
  • Verifica la presenza di tracce di manipolazione: presta attenzione alle irregolarità visive e sonore (Cherifi, 2025).
  • Utilizza strumenti di rilevamento. Esistono strumenti e metodi forensi che analizzano video e audio e rilevano anomalie (Springer, 2025).
  • Lavora sulla tua alfabetizzazione mediatica. Capire come vengono creati i contenuti – e come vengono utilizzati in modo improprio – è la migliore protezione a lungo termine (Drobnjak, 2025).

Conclusione: una nuova era richiede nuove competenze

La tecnologia deepfake non scomparirà. Diventerà migliore, più veloce e più accessibile. Come avverte la letteratura specialistica, ciò comporta un significativo dilemma etico, sociale e di sicurezza (Masood et al., 2021; Cherifi, 2025).

Ma questo non significa che siamo impotenti. Più comprendiamo come vengono manipolati i contenuti audiovisivi, più siamo resistenti alla disinformazione, alle frodi e agli abusi. L’alfabetizzazione mediatica diventa un’immunizzazione digitale e tutti dovrebbero svilupparla.

Riferimenti:

  • Cetinski, A. (2024). DEEPFAKE tehnologija – predstavitvene tehnike.
  • Cherifi, H. (2025). Deepfake media forensics: Status and future challenges. Journal of Imaging, 11(3), 73.https://doi.org/10.3390/jimaging11030073 PMC
  • Drobnjak, J. (2025, June 10). Deepfake tehnologija – izazovi, prijetnje i prilike – tko kontrolira stvarnost? Točno.hr.Tocno
  • Maras, M.-H., & Alexandrou, A. (2019). Determining Authenticity of Video Evidence in the Age of Artificial Intelligence and in the Wake of Deepfake Videos. The International Journal of Evidence & Proof, 23(3), 255-262.
  • Masood, M., Nawaz, M., Malik, K. M., Javed, A., & Irtaza, A. (2021). Deepfakes Generation and Detection: State‑of‑the‑art, Open Challenges, Countermeasures, and Way Forward. arXiv. arXiv
  • Misirlis, N., & Munawar, H. B. (2023). From deepfake to deep useful: Risks and opportunities through a systematic literature review. arXiv. arXiv
  • Springer, A. (2025). A survey on multimedia-enabled deepfake detection: State-of-the-art tools and techniques, emerging trends, current challenges & limitations, and future directions. Discover Computing. SpringerLink
  • Udruženje novinara Srbije & Centar za razvoj omladinskog aktivizma (2025). Većina ljudi ne može da prepozna deepfake sadržaj. rs. Euronews.rs
  • NUNS, I. K. (2025, 05/06). Dipfejk – sofisticirana tehnologija za kreiranje dezinformacija. NUNS