O Meio utiliza cookies e outras tecnologias semelhantes para melhorar sua experiência. Ao navegar você concorda com tais termos. Saiba mais.
Assine para ter acesso básico ao site e receber a News do Meio.

Estudo mostra erro de chatbot de IA sobre informações eleitorais 30% das vezes

Quer informações precisas sobre as eleições? Não pergunte a um chatbot de inteligência artificial, mesmo que ele pareça confiante em suas respostas e cite fontes aparentemente confiáveis. O alerta está em uma pesquisa feita pela AI Forensics e pela AlgorithmWatch, organizações europeias sem fins lucrativos. O estudo descobriu que o Bing AI da Microsoft, rebatizado como Microsoft Copilot, respondeu de forma imprecisa a uma de cada três perguntas básicas sobre candidatos, pesquisas, escândalos e votação em dois ciclos eleitorais recentes na Alemanha e na Suíça. Em vários casos, citou incorretamente as fontes. Também houve respostas imprecisas sobre as eleições americanas do ano que vem. A descoberta não chega a dizer que houve desinformação, mas destaca a preocupação de que os atuais chatbots de IA contribuam para isso em eleições futuras, à medida que a Microsoft e outras big techs correm para integrar essas ferramentas em produtos quotidianos, como a busca na internet. “À medida que a IA generativa se torna mais difundida, isso poderá afetar um dos pilares da democracia: o acesso a informação pública, confiável e transparente”, afirma a pesquisa. (Washington Post)

PUBLICIDADE

Encontrou algum problema no site? Entre em contato.