La inteligencia artificial se convierte en herramienta para explotar niños: más de 15 casos en Colombia durante 2025

Red PaPaz advierte que el uso de inteligencia artificial para crear imágenes sexuales falsas de menores se disparó en Colombia. Según la línea Te Protejo, ya hay más de 15 casos documentados este año donde se crearon cientos de imágenes ilegales. La organización pide al Estado y a las plataformas digitales reglas claras para proteger a la niñez, pues estas imágenes facilitan extorsión, chantaje y monetización del abuso.
Una tecnología que prometía facilitar nuestras vidas se está convirtiendo en arma para dañar a los niños en Colombia. Red PaPaz, organización dedicada a proteger menores en internet, activó todas las alarmas al advertir sobre el aumento acelerado de aplicaciones que usan inteligencia artificial para crear imágenes sexuales falsas de menores de edad. Estas herramientas manipulan fotos y videos reales de niños y adolescentes para generar contenido sexualizado sin su consentimiento, una práctica conocida como deepfakes. Según datos de la línea de reporte Te Protejo, solo en lo que va de 2025 se han procesado más de 15 casos donde agresores usaron inteligencia artificial para producir cientos de imágenes ilegales.
Lo alarmante es que el fenómeno va en aumento. Las líneas de ayuda reciben cada vez más consultas de niños, adolescentes y sus familias preocupados por la circulación de imágenes falsas con contenido sexual y por robots que fingen establecer relaciones emocionales y sexuales con menores. Aunque estas imágenes son sintéticas, los daños psicológicos que causan son muy reales. Las víctimas sufren impactos emocionales profundos, y una vez que estas imágenes circulan por redes sociales es casi imposible eliminarlas por completo.
El problema va más allá del daño emocional. Estas imágenes falsas se usan para cometer otros delitos: la extorsión y el chantaje son cada vez más comunes. Peor aún, algunos agresores han encontrado maneras de monetizar el abuso, vendiendo este contenido ilegal y ganando dinero con la violencia sexual de menores. En algunos casos, quienes hacen esto son pares, otros niños o adolescentes de la misma edad de las víctimas.
Según Carolina Piñeros, directora ejecutiva de Red PaPaz, el problema no es simplemente que los padres no vigilen bien a sus hijos. Piñeros afirmó que "En Colombia seguimos tratando el impacto de las plataformas digitales en la niñez como si fuera una decisión de crianza, y no lo es. Es un problema estructural, de diseño y de falta de reglas para las plataformas". Ella insistió en que "No se trata solo de restringir en casa o en el colegio, estas empresas deben tener una verificación de edad efectiva, un diseño de productos que hagan posible unos entornos digitales seguros para la niñez. Colombia necesita una regulación que ponga en el centro los derechos de niñas, niños y adolescentes, no los intereses económicos de las plataformas, como ocurre ahora".
La organización reclama que las grandes empresas tecnológicas y las plataformas digitales asuman su responsabilidad. Esto significa implementar sistemas de seguridad desde el momento en que diseñan sus productos, detectar proactivamente contenidos ilegales, bloquear accesos y cooperar más con las autoridades. También piden mayor transparencia en cómo moderan el contenido. Red PaPaz se unió a una declaración internacional llamada "No a las herramientas de IA de desnudez", firmada por más de 100 organizaciones en distintos países, que busca prohibir globalmente las herramientas de inteligencia artificial usadas para crear imágenes falsas de desnudez.
Mientras la regulación llega, Red PaPaz hace un llamado directo a los ciudadanos: no compartan este tipo de imágenes bajo ninguna circunstancia y repórtenlas a las autoridades. Puede hacerlo a través del CAI Virtual o usando la aplicación Te Protejo.
Fuente original: El Colombiano - Tecnología