Cali, febrero 6 de 2026. Actualizado: jueves, febrero 5, 2026 22:44

Inteligencia artificial bajo escrutinio

Unicef denuncia abusos sexuales a menores mediante deepfakes

Unicef denuncia abusos sexuales a menores mediante deepfakes
Foto: Freepik
jueves 5 de febrero, 2026

El uso de inteligencia artificial para generar imágenes falsas con contenido sexual de niños y niñas encendió las alarmas a nivel global.

En una reciente declaración, Unicef manifestó su preocupación por el creciente volumen de deepfakes sexualizados que circulan en internet, muchos de ellos afectando directamente a menores de edad.

Los deepfakes —imágenes, videos o audios manipulados o creados por inteligencia artificial— están siendo utilizados para producir contenido explícito.

Una de las prácticas más recurrentes es la llamada “nudificación”, que consiste en eliminar digitalmente la ropa en fotos de menores para crear representaciones sexuales falsas.

Un estudio reciente desarrollado por Unicef, Ecpat e Interpol, realizado en 11 países, reveló que al menos 1,2 millones de niños y niñas fueron víctimas de la manipulación de sus imágenes mediante inteligencia artificial.

En algunos casos, la proporción alcanzó a uno de cada 25 menores. Esta cifra equivale a un niño o niña por aula, según estimaciones de la organización.

El daño es real, aunque las imágenes sean falsas

Unicef fue enfático: estas imágenes constituyen abuso sexual infantil. Aunque el contenido no sea real, las consecuencias para las víctimas sí lo son.

El uso de la imagen o identidad de un menor en estos montajes convierte automáticamente a ese niño o niña en víctima de abuso.

Incluso cuando no hay un menor identificable, la existencia de este tipo de material refuerza la normalización de la explotación sexual infantil y obstaculiza el trabajo de las autoridades.

El informe también muestra que los propios niños son conscientes del riesgo. En algunos países, dos de cada tres afirmaron tener miedo de que se usen herramientas de IA para falsificar imágenes o videos suyos con contenido sexual.

Las diferencias entre regiones refuerzan la necesidad de medidas educativas, preventivas y de protección.

Unicef destacó los esfuerzos de algunos desarrolladores de IA que han implementado medidas de seguridad desde el diseño. Sin embargo, advirtió que muchas herramientas aún se desarrollan sin salvaguardas suficientes.

El riesgo se amplifica cuando estas tecnologías se integran directamente en redes sociales, donde las imágenes pueden difundirse rápidamente.

Llamado urgente a la acción

Ante este panorama, Unicef hizo un llamado a gobiernos, empresas tecnológicas y desarrolladores.

Solicitó que todos los países amplíen sus definiciones legales de abuso sexual infantil para incluir el contenido generado por IA y que se penalice su creación, adquisición, posesión y distribución.

También pidió a los desarrolladores implementar mecanismos de protección sólidos para evitar el mal uso de sus modelos.

A las plataformas digitales, les exigió prevenir la circulación de estos contenidos, no solo eliminarlos después de que han sido difundidos.

Para ello, recomendó invertir en tecnologías de detección que permitan actuar de inmediato ante la aparición de este material.


Unicef denuncia abusos sexuales a menores mediante deepfakes

Comments

ads_top
Powered by Sindyk Content
Arriba