El nuevo frente invisible
La inteligencia artificial (IA) está revolucionando múltiples campos… pero también está abriendo un frente oscuro: la violencia sexual en línea. Tecnologías como los deepfakes, que generan imágenes falsas con apariencia real, ya están siendo utilizadas para dañar. Hoy pueden fabricarse fotos o videos íntimos de personas —incluso de niñas, niños y adolescentes— sin que hayan hecho nada. Luego, ese material se puede difundir masivamente.
Por Lenny Cáceres*
Podcast: escucha el episodio en la voz de Flavia Heredia
Lo más alarmante es que ahora se puede generar contenido sexual falso sin que exista una víctima directa frente a una cámara. Pero el impacto es igual de devastador.
Además, el ciberacoso se vuelve más sofisticado. Con IA, es posible crear bots que imiten personas, simulen relaciones o incluso faciliten el grooming —la manipulación previa a la violencia sexual—. Hoy, la IA no solo detecta: también puede crear. Y eso es profundamente alarmante.

¿Cómo se relacionan la IA y la violencia sexual?
- Deepfakes[1] y nudes falsos: imágenes sexualizadas de personas reales, generadas sin consentimiento. Ya hay casos en escuelas donde se han distribuido imágenes falsas de NNyA.
- IA generativa: puede producir material de violencia sexual contra la niñez y adolescencia simulado, sin una víctima real frente a cámara. Aun así, es contenido explotador, dañino, ilegal o, al menos, éticamente inaceptable.
- Ciberacoso aumentado: el grooming puede facilitarse mediante avatares o chatbots. También se detecta acoso automatizado, difícil de rastrear, que afecta sobre todo a mujeres y adolescentes.
- Distribución masiva: la IA facilita la creación, difusión y viralización de este tipo de contenidos, de forma rápida y anónima.
¿Qué desafíos plantea esta situación?
La legalidad se vuelve difusa: muchas legislaciones aún no contemplan los deepfakes sexuales ni el contenido generado por IA. ¿Cómo juzgar algo que «nunca ocurrió», pero que daña como si hubiera ocurrido? La dificultad para detectar: distinguir lo real de lo falso es cada vez más complejo. Incluso los sistemas de verificación automatizados luchan por seguirle el paso a la tecnología. Y sobre todo, la impunidad digital, muchas plataformas carecen de mecanismos eficaces para reportar esta violencia, o reaccionan demasiado tarde.
Necesitamos tu acompañamiento económico para sostener nuestro periodismo — que siente, escucha y transforma. Suma tu aporte
¿Qué se puede hacer? ¿Qué se está haciendo?
Organizaciones como Thorn, IWF, ECPAT y UNICEF ya están alertando sobre este fenómeno. Se necesitan leyes nuevas, claras y eficaces. Pero también tecnologías éticas, que no solo vendan soluciones, sino que protejan a quienes más lo necesitan: niñas, niños y adolescentes.
Y, por supuesto, responsabilidad de las plataformas: actuar con rapidez, transparencia y compromiso. No basta con decir «estamos trabajando en ello»; el daño ocurre en tiempo real.
La tecnología avanza más rápido que la ética y la ley. Pero el derecho a no ser agredida, agredido —ni siquiera virtualmente— no puede quedarse atrás.
La inteligencia artificial puede ser parte del problema… o parte de la solución. Todo depende de quién la entrena, con qué propósito, y con qué límites.
Te invitamos a reflexionar, a informarte y a exigir. Porque si no hablamos de esto ahora, lo invisible seguirá creciendo.
(*) Periodista feminista abolicionista, directora/editora de Diario Digital Femenino. Titular de la web de Asesoramiento y Capacitación https://lennycaceres.com.ar/
Autora del libro La transversalidad del género: espacios y disputas.(Ed. Sudestada)
Referencia
[1] El la combinación de dos términos “deep” (profundo) y “fake” (falso).
Seguinos en Instagram. Diario Digital Femenino: @diariodigitalfemenino_
Lenny Cáceres: @lennycaceres69
Facebook: Diario Digital Femenino
TikTok; diariodigitalfemenino