Una adolescente demanda a los creadores de ClothOff por las secuelas que arrastra tras desnudarla sin consentimiento
Una adolescente víctima de la aplicación ClothOff, que usa la inteligencia artificial generativa...
Una adolescente víctima de la aplicación ClothOff, que usa la inteligencia artificial generativa para desnudar a cualquiera a partir de una imagen con ropa, ha demandado a los creadores por las secuelas que arrastra y por el potencial uso que estén haciendo de sus imágenes para entrenar modelos de IA.
En 2023, compañeros de secundario de Jane Doe -nombre genérico que se usa para no identificar a la menor de edad, en este caso, de 17 años- obtuvieron y usaron imágenes de ella para cargarlas en la aplicación ClothOff, que con solo tres clics desnuda a la persona, ofreciendo un resultado que no puede diferenciarse de una imagen real.
“Jane Doe estaba mortificada y emocionalmente desconsolada, y ha experimentado consecuencias desde entonces”, recoge el texto de la demanda, presentada en el Tribunal de Distrito de Los Estados Unidos del Distrito de Nueva Jersey.
Ello le ha llevado a demandar junto con sus padres a la empresa AI/Robotics Venture Strategy 3, responsable de la aplicación, por entender que su modelo de negocio no solo facilita la creación de desnudos ilegales, sino también su distribución y la monetización a través de los planes de pago, e incluso a través de la provisión de la tecnología de base a desarrolladores y otras plataformas.
“Todo el modelo de negocio de los demandados se basa en los aspectos penales y delictivos de la explotación y victimización de niños y adultos”, se indica, en referencia a las imágenes hiperrealistas de desnudos de personas sin su consentimiento que produce, ya sean menores (lo que se llama material de abuso sexual infantil) o adultos (imágenes íntimas sin consentimiento) “convirtiéndolo en un caldo de cultivo por pornografía infantil, explotación y abuso sexual”.
También se señala que, “porque no hay forma de determinar hasta qué punto llegaron a distribuirse las imágenes, Jane Doe ahora vive con el temor constante de que su CSAM (Child Sexual Abuse Material) permanezca disponible en ClothOff y en otros lugares. Le preocupa que esas imágenes puedan distribuirse a otras personas y que su imagen se haya utilizado y se siga utilizando para ayudar a entrenar el sistema de inteligencia artificial de ClothOff para mejorar generar CSAM de otras niñas”.
Según se recoge en la demanda, ClothOff produce cada día una media de 200.000 imágenes y recibe unos 27 millones de vistas. La propia promoción de la app invita a los usuarios a “desnudas a cualquiera” con su servicio gratuito.