A corrida dos datacenters
Três anos, estourando. Esse é o prazo que o Brasil tem para entrar de vez na corrida global dos data centers ou ver a janela se fechar diante do avanço da inteligência artificial (IA). O alerta veio sem rodeios de Luis Tossi, vice-presidente da Associação Brasileira de Data Center (ABDC), durante um seminário promovido pelo Programa das Nações Unidas para o Desenvolvimento (PNUD), em São Paulo.
Na plateia estavam representantes dos ministérios do Meio Ambiente e de Minas e Energia, do Serviço Federal de Processamento de Dados (Serpro) — a maior empresa pública de tecnologia da informação do país —, além de executivos de grandes companhias privadas. Todos ouviram atentos enquanto Tossi desenhava o cenário: “A janela de oportunidade da IA é muito curta. Temos de dois a três anos, no máximo, para cooptar os grandes data centers de treinamento de algoritmos para o Brasil”, afirmou.
A urgência tem base sólida. Estima-se que o Brasil tenha cerca de 162 data centers em operação, somando aproximadamente 612 megawatts de potência instalada voltada à tecnologia da informação — com outros 162 megawatts em construção, o total gira entre 750 e 774 MW. Para ter ideia do que isso significa: é mais ou menos o que consome, 24 horas por dia, uma cidade do porte de Juiz de Fora (MG), com cerca de 570 mil habitantes. Só que, no caso dos data centers, essa energia não é gerada. É consumida.
Tratam-se, no entanto, de estimativas. Segundo Tossi, “existe uma divergência de dados muito grande porque não há agência ou instituto que consiga fazer um estudo capaz de acompanhar a velocidade em que o mercado vem crescendo”.
Na prática, esses centros atuam como o coração invisível da internet. Ali ficam concentrados milhares de servidores e equipamentos de rede que fazem o trabalho pesado de processar, armazenar e distribuir o volume gigantesco de dados produzidos e acessados todos os dias. Ou seja: toda vez que você entra em uma rede social, assiste a um vídeo, faz uma compra online, consulta o app do banco ou interage com uma inteligência artificial, seu pedido não vai direto para o site ou aplicativo — ele é roteado por essas instalações.
Nos data centers, as informações são recebidas, organizadas, processadas e enviadas de volta, quase em tempo real. Pense neles como centrais de controle e distribuição digital, conectando usuários a serviços espalhados pelo mundo. Por isso, precisam funcionar 24 horas por dia, sete dias por semana, sem falhas.
E o que mantém tudo isso rodando? Energia elétrica. Muita energia. Servidores, sistemas de refrigeração para evitar superaquecimento, segurança física e digital, e conexões de internet de alta velocidade consomem uma quantidade gigantesca de eletricidade. É por isso que, diferentemente de outras indústrias, a capacidade de um data center não é medida por área construída ou número de funcionários, mas pela potência elétrica que consegue consumir continuamente. Quanto mais megawatts, maior a capacidade de operação estável e de atender à demanda crescente por dados.
Se o país seguir no ritmo atual de expansão, puxado sobretudo pela alta orgânica dos serviços em nuvem, pode chegar a 2,5 gigawatts até 2037. Mas, quando a IA entra na conta, tudo muda. A tecnologia exige infraestrutura especializada e robusta, grande disponibilidade elétrica, baixo custo e pressa. Quem estiver pronto, leva.
Igor Marchesini, assessor especial do Ministério da Fazenda, vê uma janela ainda mais curta para o Brasil não perder o bonde: entre 12 e 18 meses. Por isso, é preciso correr para criar um ambiente competitivo. Há nove meses Marchesini aperta o passo nessa maratona desenvolvendo o Plano Nacional de Data Centers, o Redata — uma política que antecipa os efeitos da reforma tributária sobre o consumo no setor digital, propondo a desoneração de componentes essenciais para atrair grandes players.
Se a medida entrar em vigor, a indústria nacional de data centers pode inflar a ponto de atingir 10 gigawatts em uma década. O que isso representa? Investimentos da ordem de R$ 2 trilhões ao longo dos próximos dez anos, afirma Marchesini.
Energia não falta (mas nem sempre chega)
Isolados, os Estados Unidos lideram o ranking global de data centers, com 5.381 unidades registradas no ano passado pelo Cloudscene, diretório internacional de infraestrutura digital. A hegemonia é natural: o país concentra a maior quantidade de big techs do mundo, sendo berço das chamadas “Big Five” — Alphabet (dona do Google), Amazon, Apple, Meta (controladora do Facebook) e Microsoft.
Mas essa liderança tem um custo. A matriz elétrica americana ainda depende fortemente de combustíveis fósseis: apenas cerca de 25% da eletricidade consumida nos EUA vêm de fontes renováveis. O impacto disso aparece, ainda, nas emissões — um quilowatt-hora consumido no país emite, em média, entre 0,4 kg de CO2. No Brasil, esse número é muito menor: cerca de 0,08 kg. Quando se coloca na balança a explosão do consumo energético dos data centers com IA, essa diferença vira não só uma vantagem ambiental, mas também econômica e estratégica.
Em segundo lugar no ranking está a Alemanha, com 521 centros, seguida pelo Reino Unido, com 514. A China aparece logo atrás, acumulando 449 instalações. O Brasil, ainda distante, figura na 13ª posição. Embora a colocação seja modesta, tem um trunfo diante dos concorrentes: uma das matrizes elétricas mais limpas do mundo, devido à alta participação de fontes renováveis. De acordo com o Balanço Energético Nacional de 2025, no último ano o Brasil gerou 88,2% de sua eletricidade a partir de fontes renováveis, com destaque para as energias hidrelétrica, eólica e solar. Para efeito de comparação, a média global foi de 32%, segundo relatório do think tank de energia Ember.
Mesmo na América Latina, o Brasil sai na frente graças a uma combinação estratégica. Tossi destaca que “nós temos energia renovável, energia barata, mão de obra qualificada e empresas especializadas. […] Hoje, uma boa parte dos data centers da América Latina está sendo construída por empresas brasileiras.” Ele ressalta ainda que “temos um mercado interno com déficit. Só para atender essa demanda local, já daria para mais que dobrar o parque atual de data centers.” Esse cenário aponta para um potencial de crescimento expressivo e para a possibilidade de o país se consolidar como um polo digital regional.
O contexto global também reforça essa vantagem. “Depois de dez anos estável, a demanda por data centers explodiu na pandemia”, explica Igor Marchesini. Na década entre 2010 e 2020, o consumo global desses centros girava em torno de 200 TWh — e, hoje, já está entre 240 e 340 TWh por ano. A Agência Internacional de Energia (IEA) projeta que esse número mais que dobrará até 2030, chegando a cerca de 945 TWh. Ou seja: um crescimento de quase cinco vezes em dez anos, impulsionado sobretudo pela explosão dos serviços de IA.
“Obviamente, o planeta não aguenta que isso seja feito com energia suja, né?”, alerta Marchesini. A preocupação tem fundamento. Embora países como os Estados Unidos e a China concentrem a maioria dos centros de dados, suas matrizes energéticas ainda dependem fortemente de fontes fósseis — o que coloca em xeque a sustentabilidade dessa expansão. Por isso, ele acredita que o Brasil “está muito bem-posicionado” para ocupar esse novo espaço com uma pegada verde e mais competitiva.
Ainda assim, a concentração dos data centers em poucas regiões do país acende um alerta. A maioria dessas instalações está no interior de São Paulo, especialmente no eixo Barueri-Campinas — uma área que oferece boa infraestrutura elétrica, conexão de qualidade e está perto dos principais polos consumidores. A proximidade garante baixa latência, ou seja, respostas rápidas, essenciais para serviços como bancos, e-commerces e streaming. No entanto, também significa sobrecarga: mais pressão sobre o fornecimento de energia, sobre a ocupação do solo e até sobre o uso da água.
Mas nem todo data center precisa estar colado às grandes cidades. No caso dos que treinam modelos de inteligência artificial, por exemplo, a lógica muda: como não dependem de respostas em tempo real, eles podem ser instalados em áreas mais afastadas — desde que tenham energia abundante, clima favorável para resfriamento e uma boa conexão com a rede principal. Isso abre uma janela de oportunidade para descentralizar a infraestrutura, levar investimentos para outras regiões e integrar o Norte e o Nordeste à nova economia digital.
Infraestrutura
GPUs, refrigeração líquida, circuito fechado, circuito aberto. Palavras que até pouco tempo pertenciam ao vocabulário técnico de engenheiros agora fazem parte do dia a dia de quem trabalha com data centers. Com a inteligência artificial ganhando espaço, a estrutura tradicional dessas instalações precisa mudar — e rápido.
“O ar não é mais capaz de dar conta do resfriamento”, explica Rodrigo Radaieski, COO da Ascenty, maior empresa de infraestrutura de data center da América Latina. “Então entra a refrigeração líquida.” Enquanto os data centers tradicionais, voltados à nuvem (cloud), costumam operar com resfriamento a ar e equipamentos padrão, os dedicados à IA exigem máquinas muito mais potentes, como os servidores equipados com GPUs (unidades de processamento gráfico), que geram um volume de calor muito maior e, por isso, precisam de tecnologias específicas para manter a operação estável.
Ele conta que a empresa já opera projetos com liquid cooling — ou seja, sistemas nos quais o calor é dissipado por meio de água ou outros líquidos refrigerantes. Em muitos casos, isso exige reconfigurar completamente o projeto das instalações.
Para início de conversa, a mudança começa no maquinário. Em vez dos processadores tradicionais, os sistemas de IA usam as GPUs, que hoje são o coração da inteligência artificial. Isso porque conseguem lidar com muitas tarefas ao mesmo tempo, algo essencial para treinar modelos como os de linguagem e visão computacional. Só que esse desempenho extra vem com um preço: esses componentes são mais complexos, processam mais informações, portanto esquentam muito mais. E isso exige outra lógica de resfriamento.
Há três principais formas de enfrentar esse desafio de resfriamento. A primeira é o liquid to chip, em que água gelada circula por tubos posicionados bem próximos aos chips, retirando o calor diretamente das peças mais sensíveis. Outra opção é o rear door heat exchanger, uma porta traseira nos racks que resfria o ar quente ao sair dos equipamentos — solução que ainda pode ser usada em cargas moderadas de IA, mas que tem limitações em ambientes de altíssima densidade. E existe ainda a técnica de imersão, em que os componentes eletrônicos são mergulhados em um líquido especial que não conduz eletricidade, permitindo a dissipação eficiente mesmo nos casos mais extremos.
Essas mudanças técnicas trazem uma nova preocupação: o uso responsável da água. “Alguns sistemas no mundo usam torres de resfriamento que desperdiçam água. A gente não usa nada disso. Todos os nossos sistemas são em circuito fechado. A mesma água circula, resfria, volta e é usada de novo. Nosso desperdício hídrico é praticamente zero”, diz Rodrigo.
Para medir esse desempenho, o setor usa indicadores como o WUE (Water Usage Effectiveness), que calcula quanta água é consumida para cada quilowatt-hora entregue aos equipamentos. Já a eficiência energética é avaliada pelo PUE (Power Usage Effectiveness), que mostra quanto da energia total consumida pelo data center está, de fato, sendo usada pelas máquinas. Quanto mais próximo de 1, melhor: significa que quase toda a eletricidade vai direto para o processamento, e não para resfriamento ou outras funções auxiliares.
Mesmo com energia limpa, infraestrutura moderna e tecnologias avançadas, o Brasil ainda enfrenta um entrave — e ele não é técnico. “O problema hoje está no custo de montar tudo isso no Brasil. Esses equipamentos com GPU são importados. Um computador que custa ‘um’ lá fora, chega por ‘dois’ aqui. E o investimento para rechear um data center com esse tipo de máquina é altíssimo. Para cada dólar que o cliente gasta com infraestrutura, ele gasta dez com os equipamentos que vão lá dentro.”
Ainda assim, o otimismo prevalece. “A gente tem energia sobrando, tem conectividade, tem gente capacitada, tem uma estrutura de altíssimo nível. O que falta é tornar o ambiente mais atrativo para investimento internacional.” E conclui: “Se a gente conseguir mexer na burocracia, rever tributos e facilitar a entrada desses equipamentos, o Brasil pode se tornar um dos grandes polos verdes da IA no mundo.”
Desburocratiza, a palavra de ordem
O caminho para desburocratizar o setor de data centers no Brasil foi, nas palavras de Igor Marchesini, praticar um exercício de startup dentro do governo. Ele reuniu representantes dos ministérios do Meio Ambiente, de Minas e Energia, da Casa Civil e de outras áreas para testar ideias, colocar hipóteses à prova e ajustar o projeto enquanto dialogava, em paralelo, com empresas do setor. O objetivo era simples, mas ambicioso: criar uma política pública que fizesse sentido — e funcionasse na prática.
O resultado foi o Redata. A proposta prevê isenção de IPI, PIS/Cofins e imposto de importação para empresas que queiram investir em data centers no Brasil, por um período de cinco anos. Mas há contrapartidas: as empresas precisam comprovar operação com carbono zero e eficiência hídrica; parte da capacidade instalada deve obrigatoriamente permanecer no país — hoje, cerca de 60% da carga digital brasileira roda fora do Brasil, principalmente na Virgínia (EUA); e pelo menos 2% do investimento precisa ser destinado à formação de mão de obra e à pesquisa aplicada à cadeia de IA e data centers, como em estudos sobre tecnologias de resfriamento líquido ou prevenção de incêndios sem uso de gases.
“Aqui, sustentabilidade não é um requisito, um impedimento ao progresso. Ela é, na verdade, uma mola propulsora. É estratégia. É o diferencial”, pondera Marchesini. Questionado sobre a receptividade do setor privado diante dessas exigências, ele é direto: “Todo mundo que a gente falou topa fazer esse tipo de coisa porque o estrutural do Brasil permite que se obedeçam a essas exigências sem grandes desvantagens econômicas. Em outras palavras, ainda conseguimos ser economicamente competitivos mesmo com essa barra alta de exigência.”
Condições que devem perpassar grandes e pequenas companhias. Afinal, o Redata não foi pensado apenas para gigantes da tecnologia. “O programa não é desenhado para hyperscales nem para big techs americanas, é desenhado para todo o ecossistema. Estamos conversando com players nacionais como MagaluCloud, a Associação Brasileira de Pequenos Provedores de Internet, players que vão fazer um pequeno data center em Manaus, outro um pequeno data center no Piauí, etc.”
Embora desanuvie o setor, o projeto é apenas um pequeno passo. Já que o tempo é curto, e a janela para atrair investimentos é ainda menor. “Esse setor se desenvolve muito rápido, então a gente não tinha o luxo de ficar um ano e meio desenhando uma grande política pública para sair em um pacotão do digital. Estamos fazendo em etapas. A primeira é o Redata, é a que vai destravar.”
E completa: “Tem todo um ecossistema chinês que não está operando no Brasil e tem que vir pra cá, que não vinha por causa desse imposto, dessa complexidade, então a gente está no esforço de trazer para aumentar a competitividade. Além disso, tem um espaço não banal para as nossas empresas de tecnologia. No fim das contas, a gente está tentando ativar o setor digital por todas as frentes, mas o Redata é, digamos assim, o building block, a pedra fundamental que depois nos permitirá jogar sementes em um solo fértil.”
Segundo fontes no Palácio do Planalto, a medida provisória que institui o Redata já está pronta. O texto tem aval da Receita Federal, da Procuradoria-Geral da Fazenda Nacional e foi assinado pelo vice-presidente e ministro da Indústria e Comércio, Geraldo Alckmin. Agora, só falta o momento certo: aguarda-se o clima político ideal para que o presidente Luiz Inácio Lula da Silva envie a proposta ao Congresso. Enquanto isso, entre tensões e ruídos entre Executivo e Legislativo, o tempo segue passando — e a janela, se estreitando.