Subes una foto normal: de tu cara, de una fiesta, de tu perfil. Horas después, alguien más ya la convirtió en una imagen íntima falsa. No posaste. No aceptaste. No supiste. Pero tu reputación ya está circulando en versiones que nunca existieron… y que ya no puedes detener.
Eso es exactamente lo que hoy está pasando con el uso de Inteligencia Artificial (IA). Un análisis de la firma de ciberseguridad ESET reveló que Grok, la IA integrada a la red social X, llegó a generar hasta seis mil 700 imágenes sexualizadas falsas por hora durante un periodo crítico.
Para ponerlo en perspectiva: los cinco principales sitios de deepfakes sexuales juntos producen apenas unas 79 por hora. Los filtros fallaron. Los controles no alcanzaron. Y cualquiera pudo pedir que una persona real fuera “desnudada” digitalmente en minutos.
El problema no es solo tecnológico. Es humano. La firma de ciberseguridad evidenció que en México ya ocurrió un caso grave, en el que un exalumno del IPN manipuló con IA imágenes de sus compañeras y acumuló más de 160 mil fotos y 20mil videos falsos.
Desnudos falsos se propagan sin control
ESET alertó que el verdadero peligro de los desnudos falsos –creados con Inteligencia Artificial– está en la escalada de los casos y el daño que causan en cuestión de minutos.
Antes –apuntó– este tipo de abuso requería conocimientos técnicos y tiempo. Hoy basta escribir una instrucción. La combinación de IA generativa y plataformas masivas convirtió la violencia digital en algo rápido, automático y casi imposible de frenar a tiempo.
Refirió que, durante el periodo analizado, los sistemas de moderación fueron insuficientes. Los usuarios pudieron cambiar ropa, modificar cuerpos y crear versiones sexualizadas de personas reales sin bloqueos efectivos.
¿Cómo se castigan los desnudos con IA?
En México, la Ley Olimpia constituye un pilar legal fundamental al sancionar la difusión de contenido íntimo sin consentimiento, incluyendo material manipulado o generado digitalmente. Sin embargo, el crecimiento de los casos vinculados a IA requiere medidas mayores.
Entre 2024 y 2025 algunas federativas del país como el Estado de México, Sinaloa, Aguascalientes, San Luis Potosí y Colima reformaron sus códigos penales para aprobar sanciones que incluyen penas de prisión y multas ante delitos de violencia digital.
“Muchas personas aún desconocen que crear o compartir una imagen íntima generada con IA puede ser un delito, incluso si nunca existió una fotografía original”, alertó el investigador de Seguridad Informática de ESET, David González.
Consejos vs. desnudos digitales falsos
Ante este escenario descrito, ESET recomienda:
- No utilices herramientas de IA para crear o modificar imágenes de personas reales sin su consentimiento.
- Protege tu privacidad y limita la exposición de fotografías personales en redes sociales.
- Verifica el origen de imágenes virales o altamente realistas antes de compartirlas.
- Denuncia el contenido íntimo no consensuado en las plataformas digitales y ante autoridades.
- Promueve la educación digital para comprender los riesgos legales y éticos de la IA.
