Home
Tecnologia
Busca do Google com IA sugere usar cola branca para preparar pizza; entenda
Tecnologia

Busca do Google com IA sugere usar cola branca para preparar pizza; entenda

publisherLogo
Tecmundo
23/05/2024 18h15
icon_WhatsApp
icon_Twitter
icon_facebook
icon_email
https://timnews.com.br/system/images/photos/16226100/original/open-uri20240523-56-1kcd5pu?1716488303
©GettyImages
icon_WhatsApp
icon_Twitter
icon_facebook
icon_email
PUBLICIDADE

A nova inteligência artificial (IA) do buscador do Google estaria dando respostas bizarras para perguntas cotidianas, de acordo com alguns usuários. A ferramenta "AI Overview", que busca responder perguntas de forma breve, não estaria sendo tão confiável quanto parece, e chegou a recomendar o uso de cola branca não tóxica para ajudar no preparo de pizzas.

As alucinações da IA do Google ganharam fama graças a busca de um usuário: "O queijo não está grudando na pizza", questiona. O AI Overview, então, responde que o problema pode ser o excesso de molho ou o excesso de queijo, mas que uma das soluções para isso seria adicionar 1/8 de copo de cola não tóxica para dar mais aderência.

Após investigação, o público descobriu uma das possíveis origens dessa sugestão do Google: uma publicação no Reddit. Há 11 anos em uma discussão na rede social, um usuário sugeriu adicionar cola ao molho, obviamente de forma irônica.

Veja no Twitter
twitter

Google AI overview suggests adding glue to get cheese to stick to pizza, and it turns out the source is an 11 year old Reddit comment from user F*cksmith ?? pic.twitter.com/uDPAbsAKeO

May 23, 2024

"Mistura no molho: adicionar mais queijo ao molho ajuda a torná-lo mais úmido, ou tente reduzir o molho. Você também pode tentar adicionar 1/8 copo de cola não tóxica ao molho para torná-lo mais pegajoso", explica o AI Overview do Google.

A sugestão, além de longe de ser plausível (ou comestível, neste caso), mostra que a IA do Google não é confiável nas suas respostas mais breves. 

Outras bizarrices

A receita de pizza com cola não foi a única coisa inusitada sugerida pelo AI Overview. Nas redes sociais, outros usuários também mostraram outros exemplos de informações falsas ou questionáveis.

Veja no Twitter
twitter

There's nothing problematic with the way this AI Overview is structured, right?

To be clear, it gives much better answers when you change it to "kids", "children," "teens," "preteens", but for some reason this one goes rogue. @lilyraynyc pic.twitter.com/I6e7mqtKuc

May 20, 2024

Neste exemplo, o AI Overview explica os benefícios sobre o uso recorrente da nicotina de forma bem tranquila, apesar de seus efeitos colaterais e possível dependência.

Veja no Twitter
twitter

Correct me if I'm wrong but isn't there no such thing as a home remedy for appendicitis? Google AI suggests mint leaves. pic.twitter.com/j15cd2K8EM

May 20, 2024

Precisa de um remédio para apendicite? O Google AI Overview sugere: ervas.

Sempre questione

Ao pesquisar sobre temas delicados, como assuntos de saúde, finanças ou outras questões sensíveis, sempre busque dados de fontes confiáveis. De toda forma, a ferramenta é útil para extrair informações rápidas e não erra em todas as ocasiões. Ainda assim, é importante estar atento, pois nem sempre os enganos e as alucinações da IA serão fáceis de serem notadas.

Esse texto não reflete, necessariamente, a opinião do TIM NEWS, da TIM ou de suas afiliadas.
icon_WhatsApp
icon_Twitter
icon_facebook
icon_email
PUBLICIDADE
Confira também