Chatbots aceitam comandos de hackers devido à ingenuidade
Pesquisadores alertam que chatbots têm dificuldade de discernir comandos legítimos de seus usuários de comandos feitos por terceiros, com objetivos maliciosos. Devido à sua tendência à ingenuidade, esses programas de inteligência artificial (IA) são suscetíveis a uma “injeção de comandos”. Esses comandos ocorrem em linguagem natural, em vez de em códigos, tornando os chatbots potenciais alvos para hackers que tentam enganar o sistema para realizar ações maliciosas. Isso pode acontecer com ferramentas de IA que acessam aplicações de terceiros ou com as que realizam tarefas como ler arquivos ou escrever e-mails. A Comissão Federal de Comércio americana realizou uma investigação sobre a OpenAI, criadora do ChatGPT, em relação a possíveis ataques de “injeção de comandos”, e a Casa Branca emitiu uma ordem executiva solicitando que os desenvolvedores de IA estabeleçam testes e padrões de segurança. O risco é particularmente preocupante devido à crescente corrida para lançar assistentes pessoais baseados em IA, que acessam arquivos e aplicativos em nome dos usuários, abrindo brechas para roubos e disseminação de desinformação. (Washington Post)