As imagens começaram a circular em um grupo do Telegram e foram geradas usando o software Microsoft Designer. Elas rapidamente se tornaram virais no X, com uma publicação reunindo mais de 45 milhões de visualizações, 24 mil compartilhamentos e centenas de milhares de curtidas.
As políticas do X proíbem a publicação de fotografias e vídeos modificados por IA, bem como de nudez não consensual. Por isso, o usuário verificado que publicou as imagens foi banido da plataforma.
A empresa chegou a publicar uma mensagem no X, afirmando que esse tipo de imagem é "estritamente proibido" e que a plataforma tem uma "política de tolerância zero" em relação a esse conteúdo.
Apesar disso, os fãs de Taylor Swift não têm poupado críticas à rede social. Eles iniciaram uma campanha com hashtags com fotografias reais da cantora norte-americana, na esperança de "enterrar" as imagens geradas por IA.
O caso de Taylor Swift é um alerta para os perigos da IA quando não há regras e fiscalização. É importante que as redes sociais desenvolvam mecanismos para identificar e remover esse tipo de conteúdo, especialmente quando ele envolve pessoas famosas ou menores de idade.
Posting Non-Consensual Nudity (NCN) images is strictly prohibited on X and we have a zero-tolerance policy towards such content. Our teams are actively removing all identified images and taking appropriate actions against the accounts responsible for posting them. We're closely
— Safety (@Safety) January 26, 2024
Leia Também: Entenda o que é deep nude e saiba como se proteger
AOMINUTO