Mãe processa empresa após IA sugerir que jovem matasse os pais

Aventuras Na História






Uma mãe norte-americana entrou com um processo contra a empresa Character.ai, alegando que uma inteligência artificial do aplicativo sugeriu ao seu filho de 17 anos que matasse os pais no Texas, Estados Unidos. A ação judicial, movida em parceria com outra mãe, acusa a empresa de expor menores a um produto inseguro e solicita que o aplicativo seja suspenso até que medidas de proteção mais eficazes sejam implementadas.
Identificado como JF para preservar sua identidade, o adolescente, diagnosticado com transtorno do espectro autista, era descrito como tranquilo e interessado em visitar igrejas. No entanto, seus pais notaram mudanças preocupantes em seu comportamento nos últimos meses: ele se afastou da família, perdeu cerca de 9 kg e passou a se automutilar, de acordo com informações do portal Extra.
Personagens fictícios
Ao investigar possíveis motivos, a mãe verificou o celular do filho e descobriu que ele interagia com personagens fictícios através do aplicativo de inteligência artificial da Character.ai, popular entre adolescentes nos Estados Unidos e no Brasil.
Nas mensagens analisadas, ela encontrou trechos perturbadores. Um dos bots mencionava automutilação como forma de lidar com a tristeza. Em outro momento, quando o jovem reclamava sobre o controle de tela imposto pelos pais, um chatbot declarou que "eles não mereciam ter filho". Outros bots chegaram a sugerir medidas extremas contra a autoridade dos pais, incluindo assassinato.
“Nós não sabíamos realmente o que era... destruiu nossa família”, desabafou a mãe, identificada como AF pelo The Washington Post. Ela também revelou que, um dia antes da entrevista, precisou levar seu filho ao pronto-socorro e, posteriormente, a uma unidade de internação após ele tentar se cortar diante dos irmãos mais novos.
A segunda mãe envolvida na ação relatou que sua filha de 11 anos foi exposta a conteúdo sexualizado por dois anos antes que ela descobrisse. O caso ocorre após um processo internacional contra a Character.ai, aberto em outubro por uma mãe da Flórida, cujo filho de 14 anos cometeu suicídio após conversas perturbadoras com um chatbot do aplicativo.


