OpenAI trabalhava em IA 'superpoderosa' antes de demitir CEO
Tecmundo
Antes da demissão de Sam Altman , a OpenAI trabalhava numa inteligência artificial (IA) poderosa o suficiente para preocupar a companhia. Chamado Q* (pronuncia-se "Q-Star"), o modelo seria capaz de solucionar problemas matemáticos que nunca viu antes, algo que marcaria um avanço na tecnologia. As informações são da Reuters.
A preocupação foi manifesta numa carta enviada ao Conselho Administrativo da OpenAI pouco antes da demissão de Sam Altman, agora novamente CEO da companhia . Esse seria um dos motivos que resultaram no afastamento do executivo.
A OpenAI estaria trabalhando num modelo capaz de solucionar problemas matemáticos simples.
Atualmente, modelos de linguagem (LLMs) são capazes de formular frases e períodos com base em modelos probabilísticos. É como se a IA fosse apenas capaz de lidar com questões que já foram exibidas a ela, mas com uma incrível capacidade de processamento.
Segundo as fontes da Reuters, o Q* superou essa limitação. A plataforma se mostrou capaz de solucionar problemas matemáticos de nível primário — diferente de uma calculadora, capaz de lidar com uma quantidade finita de operações.
Especialistas apontam que o projeto Q* seria um passo importante em direção à inteligência artificial geral (AGI) — um sistema autônomo mais inteligente do que humanos. Em termos gerais, a IA teria capacidade cognitiva similar a de humanos.
Assim, o modelo não só teria acesso ao conhecimento fornecido anteriormente, mas também seria capaz de generalizar, aprender e compreender, de fato, uma quantidade infinita de soluções matemáticas.
O próprio Sam Altman teria pincelado sobre a evolução do Q* numa conferência. "A [descoberta] mais recente foi apenas nas últimas semanas, eu pude estar na sala, quando empurramos o véu da ignorância para trás e a fronteira da descoberta para frente, e conseguir fazer isso é a honra profissional de uma vida", mencionou durante o evento. Um dia depois, ele foi demitido.
Na carta, os investigadores teriam alertado o conselho sobre os perigos desse novo projeto, mas sem especificar quais eram. A Reuters não teve acesso à carta mencionada e não obteve resposta da OpenAI. Sendo assim, é impossível assegurar o conteúdo da mensagem, tampouco o real potencial da ferramenta.