IA do Google erra ao responder perguntas que deveriam ser simples

Receba notícias todo dia no seu e-mail.

Assine agora. É grátis.

Outra inteligência artificial do Google tem um início conturbado. O novo recurso, AI Overview, deveria oferecer resultados de forma mais rápida e concisa, mas está fornecendo respostas falsas e bizarras. Enquanto as respostas viralizam por seu teor absurdo, o Google rapidamente as retira do ar. A empresa defendeu a ferramenta, rotulando os casos como “exemplos isolados” e enfatizando sua eficácia geral em fornecer informações de alta qualidade. No entanto, a Forbes conseguiu replicar vários erros, apontando para fontes originais, como comentários do Reddit ou artigos do satírico The Onion, gerando ampla ridicularização nas redes sociais. (The Verge e Forbes)

PUBLICIDADE

Nas buscas, ao perguntar quantas pedras se deve comer, o recurso experimental disse “segundo a UC Berkeley, devemos comer pelo menos uma pequena pedra diariamente.” Além disso, errou ao dizer que cobras píton são mamíferos, que astronautas se encontraram com gatos na Lua e erroneamente confirmou uma teoria da extrema-direita americana de que Barack Obama seria muçulmano. (AP News e CNN)

Esta não é a primeira gafe relacionada à IA do Google. Em fevereiro, seu chatbot Gemini enfrentou críticas semelhantes ao gerar imagens do Hitler e do Papa como pessoas negras, enquanto seu antecessor, Bard, teve um começo conturbado também por erros. (NYT e The Guardian)

Encontrou algum problema no site? Entre em contato.