El número de víctimas y las demandas contra Grok, el sistema de inteligencia artificial integrado en la plataforma X, crece a medida que se viraliza una nueva tendencia conocida como “Grok Bikini Trend”.
Mediante el uso de IA generativa, usuarios han creado y difundido imágenes sexualizadas —muchas de ellas falsas— de mujeres sin su consentimiento, lo que ha encendido alertas por violaciones a la privacidad, la dignidad y la seguridad digital.
Crecen las víctimas y las exigencias contra X
La polémica se da en un contexto de creciente escrutinio internacional. Recientemente, el Ministerio de Electrónica y Tecnologías de la Información de la India advirtió a X por el presunto incumplimiento de sus obligaciones de debida diligencia, al permitir la generación y difusión de contenido obsceno, indecente y sexualmente explícito a través de herramientas basadas en IA como Grok.
La autoridad exigió una revisión técnica y de gobernanza del sistema, así como medidas inmediatas para retirar contenidos ilegales y sancionar cuentas infractoras. Mientras la tendencia continúa circulando, la presión pública y legal sobre Grok y X aumenta.
En redes sociales, las denuncias se multiplican. La abogada penalista española Paula Fraga expuso en X un caso que ejemplifica el problema. “Sin nuestro consentimiento, por obra de un tipejo y una IA sin control, nos desnudan físicamente ante millones de ojos”, escribió, al señalar que este tipo de prácticas se realizan “con cientos de mujeres cada día”.
Fraga afirmó haber denunciado el material ante la plataforma, pero acusó que se mantiene visible bajo el argumento de que “no infringe ninguna norma”. Especialistas advierten que estos deepfakes no solo constituyen violencia sexual digital, sino que pueden derivar en delitos más graves, como extorsión y acoso.
Por ello, organizaciones de derechos digitales y víctimas exigen regulaciones específicas, mayor responsabilidad de las plataformas y el retiro inmediato de contenidos denunciados.
