Una mujer le dijo a la BBC que se sintió «deshumanizada y reducida a un estereotipo sexual» después de que la inteligencia artificial Grok de Elon Musk fuera utilizada para quitarle la ropa digitalmente.
La BBC ha visto varios ejemplos en la plataforma de redes sociales X de personas que piden al chatbot que desnude a mujeres para que aparezcan en bikini sin su consentimiento, además de ponerlas en situaciones sexuales.
XAI, la empresa detrás de Grok, no respondió a una solicitud de comentarios, más allá de una respuesta generada automáticamente que decía «mentiras de los medios tradicionales».
Samantha Smith compartió una publicación en X sobre la alteración de su imagen, lo que generó comentarios de quienes habían experimentado lo mismo, antes de que otros le pidieran a Grok que generara más de ella.
«Las mujeres no están de acuerdo con esto», dijo.
«Si bien no era yo quien estaba desnudo, me veía como yo y me sentía como yo y era tan violador como si alguien hubiera publicado una foto mía desnuda o en bikini».
Un portavoz del Ministerio del Interior dijo que se estaba legislando para prohibir las herramientas de nudificación y que, en virtud de un nuevo delito penal, cualquiera que suministrara dicha tecnología «se enfrentaría a una pena de prisión y multas sustanciales».
El regulador Ofcom dijo que las empresas tecnológicas deben «evaluar el riesgo» de que la gente en el Reino Unido vea contenido ilegal en sus plataformas, pero no confirmó si actualmente estaba investigando a X o Grok en relación con las imágenes de IA.
Grok es un asistente de inteligencia artificial gratuito (con algunas funciones premium pagas) que responde a las indicaciones de X usuarios cuando lo etiquetan en una publicación.
A menudo se utiliza para dar una reacción o más contexto a los comentarios de otros usuarios, pero las personas en X también pueden editar una imagen cargada a través de su función de edición de imágenes con IA.
Ha sido criticado por permitir a los usuarios generar fotos y vídeos con desnudez y contenido sexualizado, y anteriormente fue acusado de hacer un clip sexualmente explícito de Taylor Swift .
Clare McGlynn, profesora de derecho en la Universidad de Durham, dijo que X o Grok «podrían prevenir estas formas de abuso si quisieran», y agregó que «parecen gozar de impunidad».
«La plataforma ha estado permitiendo la creación y distribución de estas imágenes durante meses sin tomar ninguna medida y aún no hemos visto ningún desafío por parte de los reguladores», dijo.
La propia política de uso aceptable de XAI prohíbe «representar imágenes de personas de manera pornográfica».
En una declaración a la BBC, Ofcom dijo que era ilegal «crear o compartir imágenes íntimas no consensuadas o material de abuso sexual infantil» y confirmó que esto incluía deepfakes sexuales creados con IA.
Señaló que plataformas como X estaban obligadas a tomar «medidas apropiadas» para «reducir el riesgo» de que los usuarios del Reino Unido se encontraran con contenido ilegal en sus plataformas y eliminarlo rápidamente cuando tuvieran conocimiento de ello.