Deepfakes en institutos españoles — lo que está pasando, lo que dice la ley y lo que los padres necesitan saber
Imágenes sexuales falsas generadas con IA de compañeras de clase. No es un problema teórico: hay casos documentados en España con condenas penales. Y las herramientas para hacerlo son gratuitas y accesibles a cualquiera con un móvil.
En 30 segundos
Qué es
Imágenes sexuales falsas generadas con IA de personas reales — en el contexto específico de institutos españoles, con casos documentados y condenas penales
Por qué
Las herramientas para crear deepfakes son gratuitas, fáciles de usar y accesibles en el móvil. El daño que producen en las víctimas es real aunque las imágenes sean falsas
Qué hacer
Hablar con tus hijos sobre qué es un deepfake, que es un delito y que el daño es real — antes de que lo descubran por otra vía
En 2024, en varios institutos de diferentes ciudades españolas, se documentaron casos de adolescentes varones que habían generado imágenes sexuales falsas de compañeras de clase usando herramientas de inteligencia artificial. Las imágenes circularon por grupos de WhatsApp y Telegram entre compañeros.
Las víctimas eran menores. Las imágenes eran falsas. El daño fue real. Hay condenas penales.
0€
coste de las herramientas más usadas para generar deepfakes sexuales
2025
primera condena firme del Tribunal Supremo español por deepfakes de menores
minutos
tiempo necesario para generar una imagen deepfake con herramientas actuales
Cómo funciona — el proceso real
El proceso que ningún padre quiere que su hijo conozca — y que necesita conocer para hablar de él
→
Una foto pública como punto de partida
El proceso empieza con una imagen completamente normal y pública: foto de perfil de Instagram, foto de un grupo de clase, foto de una salida. No hace falta nada íntimo.
→
Una aplicación gratuita o un servicio web
Hay decenas de aplicaciones en el móvil y sitios web accesibles desde cualquier navegador. No requieren registro, no requieren pago, no requieren conocimientos técnicos.
→
La IA genera la imagen en segundos
El modelo de inteligencia artificial genera una imagen manipulada de la persona en segundos. El resultado es lo suficientemente convincente para causar daño social.
→
La imagen circula por mensajería
Una vez generada, la imagen se comparte por WhatsApp, Telegram o Snapchat entre compañeros. Una vez que circula, es prácticamente imposible eliminarla completamente.
Lo que dice la ley española
España tiene cobertura legal para perseguir estos casos, aunque la aplicación es compleja.
Ley Orgánica 10/2022. Incluye en su articulado la persecución de imágenes sexuales no consentidas — incluyendo las generadas con IA cuando representan a personas reales identificables.
Código Penal — artículo 197 bis. Cubre la difusión de imágenes íntimas sin consentimiento. Su aplicación a imágenes generadas con IA ha sido reconocida por la jurisprudencia reciente.
Protección reforzada para menores. Cuando las víctimas son menores de edad, las penas son más graves bajo la legislación de protección del menor.
La imagen es falsa. El daño es real. El Tribunal Supremo español lo reconoció en 2025: el carácter artificial de la imagen no elimina el delito ni el daño a la víctima.
En 2025, el Tribunal Supremo español emitió la primera condena firme en un caso de deepfakes sexuales de menores. Estableció que el carácter artificial de la imagen no elimina el delito ni el daño. Es el precedente que las defensas ya no pueden ignorar.
El daño a las víctimas
El impacto psicológico en las víctimas de deepfakes sexuales es comparable al de la difusión de imágenes reales no consentidas. La investigación clínica muestra consecuencias reales: ansiedad y vergüenza aunque las víctimas sepan que la imagen es falsa, dificultad para volver a los entornos sociales donde la imagen circuló, y en casos graves, ideación suicida.
El argumento "pero es falso, no pasó nada real" no funciona. El cerebro no procesa el daño social según la veracidad técnica de la imagen — lo procesa según el impacto social real.
Lo que los padres necesitan saber en la práctica
Las herramientas son accesibles para cualquier adolescente
No hace falta saber programar. No hace falta pagar. Hay aplicaciones en la App Store, Google Play, y servicios web accesibles desde cualquier navegador.
El consumo también es delito
No solo quien genera la imagen puede ser perseguido. Recibir, guardar y distribuir imágenes deepfake sexuales de personas reales sin su consentimiento es punible.
La imagen puede no desaparecer
Una vez que circula por grupos de mensajería, es difícil eliminarla completamente. Las víctimas pueden denunciar a las plataformas, pero el proceso es lento.
Cómo hablar de esto en casa
Habla de esto con tu hijo/a
"Hay aplicaciones que pueden coger una foto normal de alguien y cambiarla para que parezca que esa persona está desnuda o haciendo cosas que nunca hizo. Eso se llama deepfake. Es mentira, pero la persona de la foto se siente igual de mal que si fuera real. Y la ley lo trata como un delito grave. Si alguna vez ves algo así o alguien te lo manda, lo más importante es que me lo cuentes."
Los deepfakes sexuales no son un problema futuro. Son un problema que ya ha llegado a institutos españoles. La conversación más útil no es sobre la tecnología — es sobre el consentimiento, el respeto y las consecuencias reales de acciones que se perciben como virtuales.
Fuentes
1.Sentencia del Tribunal Supremo español, caso deepfakes de menores, 2025. Primera condena en España por uso de IA para generar imágenes sexuales de menores.
2.Ministerio del Interior — informe sobre delitos tecnológicos contra menores, 2025.
3.Internet Watch Foundation — AI-generated CSAM report (2024). Incremento exponencial de material generado con IA.
4.Europol — report on AI-enabled crime (2024).
5.Ley Orgánica 10/2022 de garantía integral de la libertad sexual. Base legal para la persecución de deepfakes no consentidos en España.