O Meio utiliza cookies e outras tecnologias semelhantes para melhorar sua experiência. Ao navegar você concorda com tais termos. Saiba mais.
Assine para ter acesso básico ao site e receber a News do Meio.

Deepfakes, Elon Musk e o Velho Oeste da IA

Durante a semana, Elon Musk violou novamente as políticas da sua própria plataforma de mídia social, o X, ao compartilhar um vídeo da vice-presidente americana, Kamala Harris, adulterado por inteligência artificial (IA). Usando imagens editadas a partir de um anúncio original, mas com a voz de Kamala clonada por IA, o vídeo é extremamente polêmico no conteúdo, e foi compartilhado pelo magnata sem um aviso sequer de que se tratava de um deepfake.

Deepfakes são vídeos ou áudios extremamente convincentes, criados utilizando IA para simular a aparência ou a voz de uma pessoa, fazendo-a parecer que está dizendo ou fazendo algo que nunca aconteceu. Há poucos anos, criar um deepfake era uma tarefa difícil, e o acesso aos softwares, escasso. Hoje, no entanto, esse acesso se tornou corriqueiro, há muitos tutoriais e ferramentas online, e mesmo um adolescente com alguma familiaridade com computadores já é capaz de conseguir resultados de alto nível.

A situação se torna muito mais grave por se tratar do bilionário Musk, com seus 191 milhões de seguidores e dono da plataforma X, cujas regras são claras ao proibir o compartilhamento de “mídia sintética, manipulada ou fora de contexto, que possa enganar ou confundir as pessoas e causar danos”. Nos comentários, Musk se defendeu dizendo que se tratava apenas de uma “paródia”. Não é verdade, e ele sabe disso.

Outras redes sociais como Instagram e Facebook, da Meta, assim como o YouTube, têm suas próprias regulamentações internas, que geralmente incluem a obrigatoriedade de identificar conteúdos produzidos com IA. Mas a questão aqui é outra: o que fazer quando o dono de uma rede social viola as próprias regras de sua plataforma? Ou quando as plataformas não aplicam suas próprias regras? E se as plataformas escolhem um lado e só aplicam suas regras aos oponentes?

Estrago político

Deepfakes têm potencial de alterar drasticamente a opinião pública, especialmente em contextos políticos. Em eleições, vídeos e áudios manipulados podem ser usados em momentos chave para difamar candidatos, espalhar falsas informações ou criar confusão entre os eleitores.

Nos Estados Unidos, uma onda de robocalls com a voz falsificada do presidente Joe Biden durante as primárias democratas incitava os eleitores a “guardarem” seus votos para as eleições gerais em novembro e se absterem de votar naquele momento. Na Nigéria, durante as eleições presidenciais de fevereiro de 2023, circulou um áudio manipulado por IA em que um candidato presidencial supostamente fazia planos para manipular cédulas eleitorais. Na Índia, um vídeo de um candidato foi sutilmente manipulado para inverter o sentido do que ele estava dizendo, usando IA para modificar a voz e a sincronia labial em apenas um curto trecho de um vídeo autêntico.

No Reino Unido, grupos como o Britain First e o Patriotic Alternative têm utilizado IA para criar deepfakes que promovem narrativas anti-imigração e antigoverno. De forma geral, grupos extremistas têm explorado a tecnologia para promover suas agendas e desestabilizar processos democráticos ao redor do mundo, aproveitando que seu uso amplia o alcance das campanhas de desinformação.

Enquanto a maioria dos países não define leis específicas para o setor, bilionários como Musk e Mark Zuckerberg têm um poder desproporcional nas plataformas que controlam. Suas ações — ou sua inação — muitas vezes escapam de supervisão regulatória, permitindo-lhes moldar narrativas, persuadir a opinião pública e promover interesses pessoais, inclusive influenciando eleições.

Atualmente, ainda não há leis e regulamentação claras para o setor nos Estados Unidos ou no Brasil, embora haja iniciativas e projetos de lei em estudo.

Nesse sentido, a União Europeia tomou a dianteira global na regulamentação do setor ao aprovar o AI Act, a primeira legislação abrangente sobre IA no mundo. Ela provavelmente servirá de modelo para outras nações ocidentais. Os sistemas são classificados de acordo com o risco potencial para a sociedade e, quanto maior o risco, maiores as exigências. Não são permitidos sistemas de identificação biométrica em espaços públicos, sistemas de pontuação social ou que manipulem o comportamento humano.

No Brasil, o Projeto de Lei 2338/23, atualmente em discussão, reflete algumas dessas influências, incorporando uma abordagem baseada em risco semelhante ao AI Act da União Europeia, mas com maior flexibilidade. Enquanto a lei não é aprovada, a Autoridade Nacional de Proteção de Dados (ANPD) tem atuado como xerife do setor, e recentemente aplicou uma série de sanções à Meta, cujo uso de dados pessoais dos usuários do Instagram para treinar sistemas de IA violou a Lei Geral de Proteção de Dados.

Já na China, a regulamentação visa aprimorar a segurança nacional, a estabilidade social e o controle governamental, com forte foco no uso de IA para vigilância e controle social. O reconhecimento biométrico em locais públicos, nesse caso, passa a ser incentivado, assim como a pontuação social — ranking feito pelo governo a partir do comportamento das pessoas. O que não deixa de ser até mais assustador e distópico.

Estamos em um ano especial, em que a rara convergência de mais de 50 eleições importantes pelo mundo afora mobilizará mais de 2 bilhões de eleitores no total. Considerando o contexto político atual, pode-se dizer que serão eleições decisivas para o futuro da própria democracia. A cada novo ciclo eleitoral, o uso de ferramentas de IA para criar deepfakes de vídeo e áudio para influenciar os resultados torna-se mais disseminado.

Em um estudo de 2023, feito pelo Brennan Center for Justice, 68% dos entrevistados nos EUA relataram ter dificuldade em distinguir entre vídeos reais e deepfakes. Políticos como Barack Obama e especialistas de instituições como o United States Institute of Peace consideram as campanhas de desinformação impulsionadas por IA uma das maiores ameaças atuais às democracias.

Nesse Velho Oeste da era da IA, nenhum Estado ou instituição tem uma solução definitiva, e não será suficiente contar apenas com a criação de novas leis ou agências regulatórias. Esse é um assunto extremamente complexo, muito difícil de controlar.

O aspecto mais importante de uma solução certamente será a alfabetização digital do público sobre as capacidades das novas tecnologias e sobre a necessidade constante de verificação de fatos como hábito fundamental no consumo de informação da nossa era. Porque a verdade é simples: não vai ter xerife nem lei que dê conta dessa guerra.

Encontrou algum problema no site? Entre em contato.

Já é assinante premium? Clique aqui.

Este é um conteúdo Premium do Meio.

Escolha um dos nossos planos para ter acesso!

Premium

  • News do Meio mais cedo
  • Edição de Sábado
  • Descontos nos Cursos do Meio
  • 3 dispositivos
  • Acesso ao acervo de Cursos do Meio*
ou

De R$ 180 por R$ 150 no Plano Anual

Premium + Cursos

  • News do Meio mais cedo
  • Edição de Sábado
  • Descontos nos Cursos do Meio
  • 3 dispositivos
  • Acesso ao acervo de Cursos do Meio*
ou

De R$ 840 por R$ 700 no Plano Anual

*Acesso a todos os cursos publicados até o semestre anterior a data de aquisição do plano. Não inclui cursos em andamento.

Quer saber mais sobre os benefícios da assinatura Premium? Clique aqui.