Deepfake: el reto de la era digital y por qué la alfabetización mediática es más importante que nunca
En un mundo en el que la información se mueve más rápido de lo que podemos comprobar, la tecnología deepfake se está convirtiendo en uno de los mayores retos del intercambio de información moderno. Se trata de contenidos de vídeo y audio generados artificialmente que parecen tan creíbles que muchas personas ya no pueden distinguir la verdad de la manipulación (Masood, Nawaz, Malik, Javed e Irtaza, 2021).
Y ahí es donde entra en juego la alfabetización mediática.
Los deepfakes no son solo una innovación tecnológica. Cambian la forma en que confiamos, verificamos y entendemos el contenido que vemos.
Breve historia
El término «deepfake» apareció alrededor de 2017, cuando un usuario de Reddit comenzó a compartir vídeos explícitos manipulados con inteligencia artificial en los que se superponían los rostros de famosos sobre los cuerpos de actores de películas para adultos. Desde entonces, la tecnología se ha desarrollado rápidamente, volviéndose más accesible y sofisticada. Inicialmente limitados a comunidades nicho de Internet, los deepfakes están ahora presentes en los medios de comunicación convencionales, la política y la industria del entretenimiento (Maras y Alexandrou, 2019).
De la innovación a la manipulación
La tecnología deepfake se desarrolló utilizando el aprendizaje profundo y modelos capaces de recrear la apariencia, los movimientos o la voz de una persona (Cetinski, 2024). Aunque nació de la curiosidad investigadora y las necesidades creativas de la industria cinematográfica, rápidamente mostró su lado oscuro.
- Puede mostrar a un político pronunciando frases que nunca ha dicho, lo que supone una grave amenaza para la democracia y el discurso público (Misirlis y Munawar, 2023).
- Puede imitar de forma plausible la voz de un director ejecutivo e iniciar una transacción financiera fraudulenta, lo que conduce al fraude (Cherifi, 2025).
- Puede colocar a alguien en un vídeo comprometedor sin su consentimiento, poniendo en peligro la privacidad y la seguridad de esa persona.
Por lo tanto, comprender esta tecnología se ha convertido en parte de la «supervivencia digital» moderna.
¿Por qué es crucial la alfabetización mediática?
Hoy en día, la alfabetización mediática no solo significa saber cómo utilizar la tecnología, sino también reconocer lo que es real y lo que es manipulación. El deepfake nos enseña a no confiar ciegamente.
Una persona alfabetizada en medios de comunicación:
- comprueba las fuentes,
- reconoce comportamientos, tonos y ritmos de habla inusuales,
- entiende cómo manipular el contenido,
- sabe que incluso las tomas «perfectas» pueden ser falsas,
- piensa críticamente antes de compartir contenidos.
¡Pero ten cuidado! Dado que la tecnología avanza cada día, todos debemos mantenernos alerta y estos criterios pueden cambiar pronto. Sería irresponsable pensar que ya somos alfabetizados para siempre solo porque lo somos en este momento.
El deepfake nos lleva de vuelta a las preguntas básicas: ¿Quién es el autor? ¿Cómo sé que las imágenes son auténticas? ¿Hay otras pruebas? Esta capacidad de analizar contenidos es la esencia de la alfabetización mediática en la era digital (Drobnjak, 2025).
¿Cómo reconocer los deepfakes? Una guía práctica para el día a día
Aunque las grabaciones deepfake son cada vez más sofisticadas, todavía hay rastros visibles de manipulación. Estas son las señales a las que hay que prestar atención:
- Ojos y parpadeo
Las primeras generaciones de deepfakes tenían un parpadeo poco natural y poco frecuente; incluso hoy en día se puede notar una mirada fija o una falta de sincronización entre los movimientos de los ojos y la cabeza (The Guardian, 2024). - Sincronización de la boca y el habla
Presta atención a los bordes de los labios que «se desbordan», a la falta de sincronía entre la entonación de la voz y las expresiones faciales, o a un ritmo de habla inusual (The Guardian, 2024). - Iluminación y sombras
Los deepfakes a veces no predicen de forma realista cómo caen las sombras, por lo que se pueden observar cambios poco naturales en la iluminación del rostro (Cetinski, 2024). - Artefactos alrededor de los bordes del rostro
Al insertar un rostro en otro cuerpo, puede haber una línea borrosa alrededor de la barbilla o la mejilla, un deslizamiento del rostro durante los movimientos o un parpadeo de la imagen (Cherifi, 2025). - Movimientos corporales descoordinados
Un deepfake más avanzado puede mostrar microexpresiones o movimientos del cuello que no acompañan al habla (Misirlis y Munawar, 2023). - El sonido que «no encaja»
El audio deepfake puede tener un ruido desigual, un sonido demasiado limpio sin ambiente de fondo o cambios bruscos de tono (Masood et al., 2021). - Comprobar la fuente
Antes de creer en la grabación, comprueba si ha sido publicada por los medios de comunicación pertinentes, busca el mismo evento en varias fuentes e intenta encontrar la grabación original o el contexto (Drobnjak, 2025).
La mejor arma contra los deepfakes sigue siendo el pensamiento crítico.
¿Cómo protegerse?
- No compartas contenido antes de verificarlo. Se difunden numerosas manipulaciones porque la gente comparte imágenes «impactantes» sin pensar (NUNS, 2025).
- Busca rastros de manipulación: preste atención a las irregularidades visuales y sonoras (Cherifi, 2025).
- Utiliza herramientas de detección. Existen herramientas y métodos forenses que analizan el vídeo y el audio y detectan anomalías (Springer, 2025).
- Trabaja en tu propia alfabetización mediática. Comprender cómo se crea el contenido, y cómo se utiliza indebidamente, es la mejor protección a largo plazo (Drobnjak, 2025).
Conclusión: una nueva era requiere nuevas habilidades
La tecnología deepfake no va a desaparecer. Será mejor, más rápida y más accesible. Como advierte la literatura especializada, esto plantea un importante dilema ético, social y de seguridad (Masood et al., 2021; Cherifi, 2025).
Pero eso no significa que estemos indefensos. Cuanto más comprendamos cómo se manipula el contenido audiovisual, más resistentes seremos a la desinformación, el fraude y el abuso. La alfabetización mediática se convierte en inmunización digital, y todo el mundo debería desarrollarla.
Referencias:
- Cetinski, A. (2024). Tecnología DEEPFAKE: técnicas de presentación.
- Cherifi, H. (2025). Análisis forense de los medios deepfake: situación actual y retos futuros. Journal of Imaging, 11(3), 73. https://doi.org/10.3390/jimaging11030073 PMC
- Drobnjak, J. (10 de junio de 2025). Tecnología deepfake: retos, amenazas y oportunidades. ¿Quién controla la realidad? Točno.hr. Tocno
- Maras, M.-H. y Alexandrou, A. (2019). Determinación de la autenticidad de las pruebas videográficas en la era de la inteligencia artificial y tras la aparición de los vídeos deepfake. Revista internacional de pruebas y evidencias de la Asociación Internacional de Investigación Forense ( ), 23(3), 255-262.
- Masood, M., Nawaz, M., Malik, K. M., Javed, A. e Irtaza, A. (2021). Generación y detección de deepfakes: estado actual, retos pendientes, contramedidas y camino a seguir. arXiv. arXiv
- Misirlis, N. y Munawar, H. B. (2023). De deepfake a deep useful: riesgos y oportunidades a través de una revisión sistemática de la literatura. arXiv. arXiv
- Springer, A. (2025). Encuesta sobre la detección de deepfakes con tecnología multimedia: herramientas y técnicas de vanguardia, tendencias emergentes, retos y limitaciones actuales, y perspectivas de futuro. Discover Computing. SpringerLink
- Asociación de Periodistas de Serbia y Centro para el Desarrollo del Activismo Juvenil (2025). La mayoría de las personas no pueden reconocer el contenido deepfake. rs. Euronews.rs
- NUNS, I. K. (2025, 05/06). Deepfake: tecnología sofisticada para crear desinformación. NUNS