La Unión Europea dijo este lunes que las imágenes de niños y mujeres desnudas que ha mostrado en las últimas semanas la inteligencia artificial de la red social X, Grok, son ilegales, espantosas y asquerosas.
«Somos muy conscientes del hecho de que Grok está ofreciendo un modo picante que muestra contenido sexual explícito con algunos resultados generados con imágenes de niños. Esto no es picante. Esto es ilegal, esto es espantoso, esto es asqueroso», dijo el portavoz de política digital de la Comisión Europea, Thomas Regnier, en la rueda de prensa diaria de la institución.
Regnier recordó que a principios del año pasado, la Comisión pidió información a X sobre las medidas que está llevando a cabo para mitigar los riesgos causados por la inteligencia artificial generativa y que en noviembre volvió a ponerse en contacto con la compañía, después de que Grok negase el Holocausto.
«Puedo confirmar que X ha respondido durante las vacaciones (de Navidad) y ahora estamos analizando el contenido», dijo el portavoz, quien insistió en que X debe cumplir con la ley de servicios digitales (DSA) de la Unión Europea, que obliga a las grandes plataformas a combatir el contenido ilegal.
«Creo que X es muy consciente de que nos tomamos muy en serio la aplicación de la DSA», continuó el portavoz, en referencia a la multa de 120 millones de euros que Bruselas impuso a la compañía en diciembre, por no respetar los requisitos de transparencia en la política de suscripciones, en los anuncios que muestra a los usuarios y en el funcionamiento de sus algoritmos.
Al margen de la vigilancia a la que le somete la Comisión Europea, X se enfrenta también a la denuncia que el gobierno francés presentó el viernes ante la justicia del país galo por crear y divulgar «contenidos de carácter sexista y sexual».
Los usuarios de X han instado a Grok a eliminar digitalmente la ropa de las fotos, a menudo de mujeres, para que parezca que solo llevan ropa interior o bikini. La proliferación de estas imágenes en una popular plataforma de redes sociales ha alarmado a reguladores y defensores de la seguridad en línea de todo el mundo, con funcionarios indios, británicos y franceses entre quienes han criticado las publicaciones.
Si bien la mayoría de los modelos de IA convencionales prohíben imágenes y videos sexuales, xAI ha posicionado a Grok como más permisivo. El sistema permite representaciones de desnudez parcial de adultos e imágenes sexualmente sugerentes, aunque prohíbe la pornografía explícita con imágenes de personas reales y el contenido sexual que involucra a menores.
En algunos países, como EE. UU. y el Reino Unido, es ilegal publicar deepfakes íntimos generados por IA de personas sin su consentimiento . Establecer y aplicar estas distinciones representa una prueba crítica para los sistemas de seguridad integrados en las herramientas de IA para la generación de imágenes.
«Si las plataformas de IA deciden permitir la generación de contenido erótico, se deben implementar de antemano salvaguardas sólidas, efectivas y verificables de forma independiente», dijo este martes en un comunicado el legislador holandés Jeroen Lenaers, quien lideró la iniciativa del Parlamento Europeo el año pasado para criminalizar las imágenes de abuso infantil generadas por IA.
Eliminar publicaciones después de los hechos, como hizo Grok, “no es una solución en absoluto, ya que el daño a las víctimas ya se ha infligido y no se puede deshacer”, añadió Lenaers.





























