Meta permitiu anúncios de app de 'deepnudes', mesmo isso sendo ilegal
Tecmundo
A Meta permitiu que uma ferramenta de "deepnude", que "tira a roupa" de pessoas digitalmente a partir de uma única foto, fizesse anúncios em redes sociais. Postagens patrocinadas sobre o serviço foram encontradas em alta quantidade tanto no Facebook quanto via Instagram .
De acordo com Alexios Mantzarlis, que fez a denúncia original em uma newsletter , foram identificadas ao menos 8 mil publicações nas plataformas nas primeiras semanas de janeiro de 2025.
Todas elas foram pagas, ou seja, a Meta aprovou a veiculação desse tipo de material e ainda recebeu dinheiro para exibir o conteúdo no feed dos usuários.
Para piorar, a análise de Mantzarlis mostrou que a ação teve resultado: cerca de 90% do tráfego no site da companhia de IA foi direcionada pelas redes sociais da Meta. Ou seja, os anúncios de fato conseguiram atrair mais pessoas para o serviço, que faz uma atividade criminosa e cheia de riscos.
O próprio responsável pela pesquisa fez várias denúncias para a Meta e notou que os anúncios sinalizados foram de fato apagados.
Porém, só o fato de eles serem aprovados já é uma preocupação — e eles continuaram aparecendo em novas versões mesmo depois da matéria original, confirmando que o sistema da Meta ainda não marcou esse serviço como irregular.
Os riscos envolvendo deepnudes
Todos os anúncios pertencem a um mesmo serviço, que criou múltiplas contas falsas em nome de pessoas que não existem e com imagens geradas por IA para fazer as publicações sobre o app.
A ferramenta promete apagar a roupa de pessoas em uma foto com auxílio de inteligência artificial (IA), sempre exibindo imagens de mulheres.
Os anúncios sugerem que você pode fazer isso com qualquer foto ou trecho de vídeo, inclusive postagens de estranhos ou famosos em redes sociais. Nas postagens, há exemplos tanto de pessoas reais, como modelos, quanto ilustrações de mulheres criadas por uma IA generativa.
Esse tipo de material pode ser usado para constranger e prejudicar vítimas , além de virar um meio de chantagem contra as pessoas envolvidas.
Ferramentas do tipo já existem ao menos desde 2019, mas tem melhorado de forma considerável com o avanço das IAs generativas. Até o momento, a Meta não se pronunciou oficialmente sobre o caso.