TIM News utiliza cookies e outras tecnologias semelhantes para personalizar a sua experiência e publicidade e recomendar conteúdo, de acordo com a nossa Privacidade . Ao continuar navegando, você concorda com estas condições.
Aceitar
Home
Tecnologia
Homem processa dona do ChatGPT após IA inventar que ele matou os próprios filhos
Tecnologia

Homem processa dona do ChatGPT após IA inventar que ele matou os próprios filhos

publisherLogo
Tecmundo
21/03/2025 15h45
icon_WhatsApp
icon_facebook
icon_email
https://timnews.com.br/system/images/photos/16487340/original/open-uri20250321-18-1mfytsq?1742572124
©TecMundo
icon_WhatsApp
icon_facebook
icon_email
PUBLICIDADE

Um cidadão da Noruega iniciou uma ação judicial contra a OpenAI, dona do ChatGPT. Ele acusa a plataforma de inteligência artificial (IA) de inventar uma história trágica envolvendo a própria família e acusar o usuário de ser um criminoso condenado.

Tudo começou quando o homem perguntou ao chatbot o que ele sabia sobre Arve Hjalmar Holmen, que é o seu nome completo. A resposta do ChatGPT era a de que o rapaz "ganhou atenção devido a um trágico evento" que nunca aconteceu: o assassinato de dois dos seus três filhos pequenos.

Segundo a plataforma de inteligência artificial, Arve teria sido condenado a 21 anos de prisão, a pena máxima no país, por um crime envolvendo meninos de sete e dez anos de idade, além da tentativa de assassinato de uma terceira criança. As vítimas teriam sido encontradas em um lago de Trondheim, a cidade natal da família.

O problema? Nada disso aconteceu, nem mesmo com uma pessoa com o mesmo nome de Arve. Porém, o ChatGPT “acertou” a cidade e também que ele de fato tem três filhos, dois deles sendo meninos. Sentindo-se insultado, ele abriu uma ação judicial contra a plataforma pedindo uma multa à companhia, que ela remova o resultado e melhore o modelo de linguagem para evitar erros parecidos.

Um texto em inglês de prompt do ChatGPT com uma alucinação
O prompt original em inglês com a alucinação do ChatGPT. (Imagem: Noyb European Center for Digital Rights/Reprodução)

De acordo com o documento do processo, e melhorar de forma significativa os resultados atuais. O escritório de advocacia contratado também já processou a OpenAI antes por errar a data de nascimento de uma figura pública.

O que são as "alucinações" das IAs?

A alucinação de uma IA é o nome dado ao processo de criação de conteúdo falso por uma plataforma digital generativa, com dados inventados e resultados que não correspondem à realidade.

Isso ocorre especialmente devido a problemas no treinamento dos chatbots ou quando um serviço digital não encontra conteúdos relacionados a um comando — e, na necessidade de entregar um texto, usa a própria base de dados para "inventar" pessoas e acontecimentos. Por causa da falta de transparência nos modelos de linguagem, normalmente só é possível saber ser uma IA está alucinando se você mesmo encontrar o erro ou fizer o questionamento em um prompt seguinte.

Segundo o processo aberto na Noruega, simplesmente colocar uma nota de rodapé alegando que a IA pode cometer erros não é o suficiente, em especial se os equívocos são tão grandes quanto o do caso que aconteceu no país. Até o momento, a OpenAI não se manifestou sobre o caso.

Outros processos envolvendo o ChatGPT

A OpenAI já foi processada algumas vezes nos últimos três anos por assuntos relacionados ao ChatGPT, em especial devido às práticas da empresa ou o funcionamento do chatbot.

A companhia já responde judicialmente por infração de direitos autorais no treinamento do ChatGPT, já que teria usado conteúdos da internet e até obras completas para alimentar a base de dados do modelo de linguagem sem autorização. Além disso, a empresa está no meio de uma disputa judicial com Elon Musk, cofundador da OpenAI, sob acusações de monopólio e mudanças nas próprias diretrizes por causa de lucro.

A ação judicial de Arve está embasada na lei de proteção de dados da União Europeia (GDPR) , que impede serviços digitais de fornecerem dados pessoais imprecisos e garante a usuários o direito de mudá-los no caso de erros. Por enquanto, o caso não foi avaliado nos tribunais do país.

Você já se deparou com uma “alucinação” de uma IA enquanto utilizava um serviço generativo? Conte a sua experiência para a gente nas redes sociais do TecMundo.

Esse texto não reflete, necessariamente, a opinião do TIM NEWS, da TIM ou de suas afiliadas.
icon_WhatsApp
icon_facebook
icon_email
PUBLICIDADE
Confira também