Home
Tecnologia
Imagens de crianças brasileiras são usadas por IA sem consentimento
Tecnologia

Imagens de crianças brasileiras são usadas por IA sem consentimento

publisherLogo
IG
10/06/2024 12h37
icon_WhatsApp
icon_Twitter
icon_facebook
icon_email
https://timnews.com.br/system/images/photos/16249499/original/open-uri20240610-56-czfv99?1718023641
©Reprodução
icon_WhatsApp
icon_Twitter
icon_facebook
icon_email
PUBLICIDADE

Um relatório divulgado pela ONG Human Rights Watch nesta segunda-feira (10) revelou que fotos de crianças e adolescentes brasileiros estão sendo utilizadas para criar ferramentas de inteligência artificial sem o conhecimento ou consentimento deles.

A análise concluiu que o LAION-5B, um conjunto de dados usado para treinar ferramentas populares de IA e construído a partir da coleta de informações em grande parte da internet, contém links para fotos identificáveis de crianças. Algumas dessas fotos incluem também os nomes das crianças nas legendas ou na URL onde a imagem está armazenada. Em muitos casos, as identidades das crianças são rastreáveis, com informações sobre quando e onde a foto foi tirada.

Foram encontradas 170 fotos de crianças de dez estados brasileiros, mas a organização afirma que esse número é apenas uma pequena amostra do problema, considerando que o LAION-5B possui 5,85 bilhões de imagens e legendas, e a Human Rights Watch analisou apenas 0,0001% do total.

As imagens mostram diversas situações, desde bebês recém-nascidos até adolescentes celebrando o Carnaval, e foram coletadas de sites de escolas, blogs pessoais e canais do YouTube. A pesquisa foi conduzida por Hye Jung Han, pesquisadora de direitos da criança e tecnologia da ONG, que decidiu investigar após descobrir que mais de 80 jovens em diferentes estados do Brasil foram alvo de assédio sexual após terem fotos modificadas na deepfake por colegas de escola.

Após entrar em contato com a empresa responsável pelo LAION-5B, as imagens foram removidas, mas não ficou claro como a plataforma pretende evitar que outras fotos com o mesmo propósito sejam baixadas novamente.

A análise mostra que esse tipo de uso das imagens pode gerar problemas tanto individualmente, já que os modelos de IA podem vazar informações privadas e criar cópias idênticas do material no qual foram treinados, quanto na criação de clones convincentes de crianças a partir de uma ou mais fotos. Isso pode levar à manipulação de vídeos para que as crianças digam ou façam coisas que nunca disseram ou fizeram na vida real.

A Human Rights Watch destaca a necessidade de uma legislação que proteja as imagens das crianças e adolescentes no ambiente digital, e lembra que o Conanda publicou uma resolução em abril deste ano orientando o desenvolvimento de uma política nacional para proteger os direitos das crianças e dos adolescentes nesse ambiente. "Eles deveriam cumprir a resolução", diz a organização.

A organização também ressalta a importância de fornecer mecanismos para que crianças que sofreram danos possam buscar justiça e reparação.

A Humans Rights Watch afirma ainda que deveria ser proibida a raspagem de dados pessoais de crianças para sistemas de IA, assim como a replicação digital não consensual ou a manipulação de imagens de menores de 18 anos.

Quer ficar por dentro das principais notícias do dia? Clique aqui e faça parte do nosso canal no WhatsApp

Esse texto não reflete, necessariamente, a opinião do TIM NEWS, da TIM ou de suas afiliadas.
icon_WhatsApp
icon_Twitter
icon_facebook
icon_email
PUBLICIDADE
Confira também