Riesgo altoIA de voz / Clonación de audio18+ (sin verificación real)1M+ usuarios activos mensuales
ElevenLabs
ElevenLabs y la clonación de voz explicada a padres — cuando la voz de tu hijo puede usarse sin que lo sepa
ElevenLabs permite clonar una voz con menos de un minuto de audio. La IA genera audio de esa voz diciendo cualquier cosa. Esta tecnología se está usando para fraudes telefónicos, para acosar a adolescentes usando la voz de sus amigos, y para crear contenido falso. Lo que antes requería equipos profesionales ahora lo hace cualquier persona en su móvil.
En 30 segundos
Qué es
Una plataforma de síntesis de voz por IA capaz de clonar cualquier voz con una muestra de audio breve — y generar audio de esa voz diciendo cualquier texto. Usada por creadores de contenido y profesionales de audio, pero también accesible para cualquier persona con acceso a un audio de la voz de alguien
Por qué
Un adolescente que tiene audios de WhatsApp de sus amigos tiene suficiente material para clonar sus voces con ElevenLabs. Eso permite crear audios falsos convincentes de personas reales diciendo cosas que nunca dijeron. Esta tecnología se está usando en casos de acoso, fraude y difamación — y los adolescentes de su entorno pueden ser tanto víctimas como perpetradores
Qué hacer
La conversación más urgente es sobre el audio como identidad: igual que una foto de alguien puede usarse sin su consentimiento, un audio de su voz también puede. Los audios de WhatsApp que manda tu hijo contienen suficiente información para clonar su voz
Mockup interactivo·WhatsApp — grupo de clase
20:50
🏫
Clase 3ºA 🏫
Diego, Marta, Carlos, Laura y 19 más
📞⋮
Hoy — 20:14
Diego
mirad esto 😂😂
20:14
Diego
📎 Imagen reenviada
Generada con IA · Reenviada 3 veces
20:14
Marta
dios mío que es esto
20:15
Carlos
🔥🔥🔥 de quién es
20:15
Laura
de donde lo has sacado
20:16
Diego
me lo pasaron en otro grupo
20:16
Mensaje...
🎤
Qué está pasando en pantalla
Velocidad de propagación
Una imagen compartida en un grupo de 23 personas puede llegar a cientos de personas en minutos — cada reenvío la aleja de cualquier posibilidad de control.
Imagen falsa, daño real
El cerebro procesa el daño social según el impacto real, no la veracidad técnica de la imagen. Que sea falsa no reduce el daño a la víctima.
Sin moderación en mensajería privada
WhatsApp y Telegram no moderan el contenido de grupos privados en tiempo real. No hay sistema automático que detenga la propagación.
Delito documentado desde 2025
El Tribunal Supremo español estableció en 2025 que generar, recibir, guardar o distribuir este tipo de imágenes es delito, aunque sean falsas.
ElevenLabs se fundó en 2022 y en dos años se convirtió en la herramienta de síntesis de voz más avanzada disponible al público. Permite hacer dos cosas: generar voz sintética de alta calidad a partir de texto, y clonar voces reales a partir de muestras de audio.
La versión gratuita tiene límites. La de pago permite clonar voces con menos de un minuto de audio y generar audio ilimitado de esa voz diciendo cualquier cosa.
Los audios de WhatsApp que tu hijo ha mandado a sus amigos en el último año son material suficiente para clonar su voz.
Cómo funciona la clonación de voz
El proceso es técnicamente simple. El usuario sube una muestra de audio de la voz que quiere clonar. ElevenLabs analiza las características de esa voz — tono, ritmo, pronunciación, inflexión. Luego el usuario escribe el texto que quiere que esa voz diga. En segundos, tiene un audio.
El resultado no es perfecto. Pero es lo suficientemente convincente para la mayoría de los usos problemáticos: mensajes de voz a los padres desde el número del hijo, audios en grupos de WhatsApp de alguien diciendo algo que nunca dijo, llamadas que suenan como una persona real.
🎭
El deepfake de audio — el primo invisible del deepfake de imagen
Mientras los deepfakes de imagen han recibido atención mediática, los deepfakes de audio son igualmente convincentes y técnicamente más fáciles de crear. Un audio falso de la voz de alguien puede distribuirse en grupos de WhatsApp y escucharse en el mismo contexto que los audios reales de esa persona.
📱
Los audios de WhatsApp como muestra de entrenamiento
La mayoría de adolescentes manda audios de WhatsApp regularmente. Esos audios — si alguien los guarda o los recibe — son material suficiente para entrenar una clonación de voz básica. La privacidad de la voz es una noción que prácticamente no existía hace cinco años.
💸
Fraudes del abuelo — el uso criminal documentado
El fraude más documentado con clonación de voz IA es el llamado "fraude del abuelo": una llamada a un familiar mayor con la voz clonada de un nieto pidiendo dinero urgente. En España se han documentado cientos de casos desde 2023. Los adolescentes son tanto posibles víctimas (su voz clonada para estafar a sus abuelos) como posibles perpetradores.
😢
Acoso con voz clonada
En contextos de acoso escolar, la clonación de voz permite crear audios de la víctima diciendo cosas que nunca dijo y distribuirlos en grupos. Esta práctica está siendo documentada en institutos de varios países.
Los usos legítimos que conviene reconocer
ElevenLabs tiene aplicaciones profesionales reales: doblaje de contenido, audiolibros, accesibilidad para personas con dificultades de habla, producción de podcast y contenido de audio.
La empresa tiene políticas de uso aceptable y ha implementado algunos controles para detectar el uso fraudulento. Esos controles son imperfectos — pero existen. El problema no es que ElevenLabs sea una empresa maliciosa. Es que la tecnología que han desarrollado tiene usos problemáticos que están al alcance de cualquier persona.
25M+
audios de voz clonada generados mensualmente en ElevenLabs. El 14% de los usuarios reporta haberla usado para crear audio de voces de personas de su entorno sin su conocimiento o consentimiento.
Estimación basada en datos públicos de ElevenLabs y encuesta de uso, 2024
La voz era una de las últimas cosas que nadie podía suplantar sin recursos profesionales. Eso cambió en 2022. La mayoría de padres y adolescentes todavía no lo saben.
👀
Cómo reconocerlo
Mencionar que alguien en su entorno ha recibido o distribuido audios falsos de voces de personas reales.
Conocimiento de ElevenLabs u otras herramientas de clonación de voz entre sus compañeros.
Cambio de comportamiento en el envío de audios de WhatsApp — más precaución o más angustia respecto a quién los recibe.
Recibir una llamada o audio de alguien que "suena raro" o que la persona dice no haber mandado.
Lo que es ilegal — dicho claramente
En España, crear audios falsos convincentes de personas reales para distribuirlos con el fin de dañar su reputación o acosar puede constituir un delito de:
Usurpación de identidad (artículo 401 del Código Penal)
Delito contra el honor por calumnia o injuria (artículos 205-210)
Acoso o stalking si forma parte de un patrón de conducta (artículo 172 ter)
Como con los deepfakes de imagen, la edad del autor no es eximente — puede dar lugar a procedimientos en justicia juvenil.
Configuración recomendada
No hay configuración técnica que proteja la voz de tu hijo. Cualquier audio de WhatsApp, vídeo de Instagram o clip de cualquier red social donde aparezca su voz puede ser usado como muestra para clonarla.
Hablar de la voz como dato sensible. Igual que enseñamos que no hay que compartir la dirección de casa o el número de teléfono con desconocidos, conviene enseñar que los audios que se mandan en grupos grandes contienen información que puede usarse sin consentimiento.
Si ocurre algo. Si tu hijo o alguien de su entorno es víctima de clonación de voz para acoso, la denuncia en la Policía Nacional o Guardia Civil (donde hay unidades especializadas en cibercrimen) es el primer paso. El Instituto Nacional de Ciberseguridad (INCIBE) tiene una línea de ayuda: 017.
Cómo hablar de esto en casa
Habla de esto con tu hijo/a
"Hay aplicaciones que pueden copiar la voz de alguien para hacer audios falsos — que suenen exactamente como esa persona diciendo cosas que nunca dijo. Los audios de WhatsApp que mandas son suficientes para hacerlo. No pasa nada por mandar audios, pero conviene saber que la voz, como las fotos, puede usarse de formas que no esperabas. ¿Has oído que esto haya pasado con alguien que conozcas?"
Esta semana
Busca un ejemplo de audio generado por IA con tu hijo y escuchadlo juntos. No para dar miedo — para que tenga referencia de lo que suena. El oído entrenado detecta imperfecciones. El oído no entrenado acepta el audio como real. Esa diferencia es una habilidad que se puede desarrollar.
Preguntas frecuentes
¿Es ElevenLabs segura para niños y adolescentes?
ElevenLabs tiene riesgo alto para menores. ElevenLabs permite clonar una voz con menos de un minuto de audio. La IA genera audio de esa voz diciendo cualquier cosa. Esta tecnología se está usando para fraudes telefónicos, para acosar a adolescentes usando la voz de sus amigos, y para crear contenido falso. Lo que antes requería equipos profesionales ahora lo hace cualquier persona en su móvil. La edad mínima recomendada es 18+ (sin verificación real). Conocer los mecanismos de diseño que usa ayuda a establecer conversaciones más concretas con los hijos.
¿A partir de qué edad se puede usar ElevenLabs?
ElevenLabs está orientada a 18+ (sin verificación real). Más allá de la edad oficial, lo relevante es si el menor entiende los mecanismos de diseño que usa la app y si hay supervisión activa en los primeros meses de uso.
¿Cómo puedo hablar de ElevenLabs con mis hijos?
El enfoque más efectivo es mostrar cómo funciona la app, no prohibirla. Preguntar qué le gusta, cuánto tiempo le dedica, con quién interactúa. El objetivo es construir criterio, no generar miedo. Conocer los mecanismos específicos que usa ElevenLabs es el punto de partida.