Empresas de IA se comprometem em remover material de abuso sexual infantil

Receba notícias todo dia no seu e-mail.

Assine agora. É grátis.

As maiores empresas de tecnologia, como Google, Meta, OpenAI, Microsoft e Amazon, se comprometeram nesta terça-feira a revisar seus dados de treinamento de inteligência artificial para remover material de abuso sexual infantil (CSAM, em inglês) de seus futuros modelos de IA. As companhias prometem não utilizar esse material nos treinamentos, remover imagens ou links para fontes que tenham conteúdo abusivo, além de fazer “testes de resistência” com as IAs para garantir que não geraram CSAM, lançando as novas tecnologias após avaliação quanto à segurança infantil. A IA generativa tem contribuído para aumentar as preocupações com imagens falsas envolvendo pornografia infantil. (The Verge)

PUBLICIDADE

Encontrou algum problema no site? Entre em contato.