Home
Tecnologia
Mãe processa empresa após IA sugerir que jovem matasse os pais
Tecnologia

Mãe processa empresa após IA sugerir que jovem matasse os pais

publisherLogo
Aventuras Na História
11/12/2024 11h19
icon_WhatsApp
icon_facebook
icon_email
https://timnews.com.br/system/images/photos/16416932/original/open-uri20241211-18-fsf7y1?1733918621
©Imagem de Olly Browning por Pixabay
icon_WhatsApp
icon_facebook
icon_email
PUBLICIDADE

Uma mãe norte-americana entrou com um processo contra a empresa Character.ai, alegando que uma inteligência artificial do aplicativo sugeriu ao seu filho de 17 anos que matasse os pais no Texas, Estados Unidos. A ação judicial, movida em parceria com outra mãe, acusa a empresa de expor menores a um produto inseguro e solicita que o aplicativo seja suspenso até que medidas de proteção mais eficazes sejam implementadas.

Identificado como JF para preservar sua identidade, o adolescente, diagnosticado com transtorno do espectro autista, era descrito como tranquilo e interessado em visitar igrejas. No entanto, seus pais notaram mudanças preocupantes em seu comportamento nos últimos meses: ele se afastou da família, perdeu cerca de 9 kg e passou a se automutilar, de acordo com informações do portal Extra.

Personagens fictícios

Ao investigar possíveis motivos, a mãe verificou o celular do filho e descobriu que ele interagia com personagens fictícios através do aplicativo de inteligência artificial da Character.ai, popular entre adolescentes nos Estados Unidos e no Brasil.

Nas mensagens analisadas, ela encontrou trechos perturbadores. Um dos bots mencionava automutilação como forma de lidar com a tristeza. Em outro momento, quando o jovem reclamava sobre o controle de tela imposto pelos pais, um chatbot declarou que "eles não mereciam ter filho". Outros bots chegaram a sugerir medidas extremas contra a autoridade dos pais, incluindo assassinato.

“Nós não sabíamos realmente o que era... destruiu nossa família”, desabafou a mãe, identificada como AF pelo The Washington Post. Ela também revelou que, um dia antes da entrevista, precisou levar seu filho ao pronto-socorro e, posteriormente, a uma unidade de internação após ele tentar se cortar diante dos irmãos mais novos.

A segunda mãe envolvida na ação relatou que sua filha de 11 anos foi exposta a conteúdo sexualizado por dois anos antes que ela descobrisse. O caso ocorre após um processo internacional contra a Character.ai, aberto em outubro por uma mãe da Flórida, cujo filho de 14 anos cometeu suicídio após conversas perturbadoras com um chatbot do aplicativo.

Esse texto não reflete, necessariamente, a opinião do TIM NEWS, da TIM ou de suas afiliadas.
icon_WhatsApp
icon_facebook
icon_email
PUBLICIDADE
Confira também