A expansão da digitalização e da Inteligência Artificial não é mais uma promessa de futuro, mas uma realidade que remodela a infraestrutura crítica mundial. Data centers hyper scale, que alimentam desde redes sociais até modelos generativos de IA, crescem vertiginosamente. No entanto, essa potência computacional tem um preço ambiental elevado, principalmente no consumo de água e energia elétrica para resfriamento. Para engenheiros e técnicos de AVAC-R, o desafio não é apenas manter servidores funcionando, mas fazê-lo de forma sustentável, segura e com custo total de propriedade (TCO) controlado.

Neste texto, dois especialistas do setor — Luiz Eduardo Salsa Fonseca, engenheiro de pré-vendas da Klimatix, e Marcos Santamaria, engenheiro de aplicação das Indústrias Tosi — respondem às perguntas essenciais para projetar, instalar e operar sistemas de climatização que conciliem disponibilidade ininterrupta (uptime) e menor pegada ecológica. Sistemas com condensação a ar, aliados a novas estratégias de controle e, em alguns casos, resfriamento líquido híbrido, podem ser mais adequados para data centers modernos do que soluções baseadas em água.

AVAC para data center vs. AVAC para conforto humano

A primeira distinção fundamental que um projetista precisa internalizar é que não se trata de climatizar pessoas, mas de garantir a operação contínua de equipamentos de TI. O que para um escritório é um ambiente agradável, para um data center pode ser um risco de falha catastrófica.

Luiz Eduardo Salsa Fonseca resume essa diferença de forma contundente:

“Em data centers, a prioridade absoluta é a continuidade da operação dos equipamentos de TI, com controle rigoroso das condições ambientais e alta confiabilidade do sistema. Já em aplicações de conforto, o foco é atender à sensação térmica das pessoas. No data center, o sistema precisa operar 24×7, com tolerância muito baixa a interrupções. O impacto de uma falha no AVAC do data center é muito mais crítico: indisponibilidade de serviços, perda de receita, penalidades contratuais e risco de danos a equipamentos.”

Marcos Santamaria complementa, listando os pilares que distinguem as duas aplicações:

  • Operação ininterrupta 24/7.
  • Alto fator de calor sensível (praticamente toda energia elétrica dos servidores vira calor sensível).
  • Redundância obrigatória (N+1, N+2) para manutenção e falhas.
  • Dimensionamento baseado em extremos climáticos anuais dos últimos 20 a 50 anos (devido às mudanças climáticas).
  • Maior robustez para reduzir o MTBF (Mean Time Between Fails).
  • Parâmetros operacionais diferentes dos recomendados para conforto humano.

“Para projeto, devem ser considerados os extremos anuais de temperaturas dos últimos 20 anos para atender certificações como a TIER do Uptime Institute. Por conta das mudanças climáticas, já estamos adotando os extremos anuais dos últimos 50 anos”, resume Santamaria.

Redundância, corredores confinados e maior eficiência

Essas distinções não ficam no campo teórico. Elas impõem uma filosofia de projeto completamente diferente. Fonseca explica que a arquitetura deixa de ser “suficiente” e passa a ser pensada em termos de caminhos independentes para água e ar, redundância de componentes (chillers, bombas, UTAs) e automação estratégica. Além disso, destaca a importância do confinamento de corredores quente e frio com contenção para evitar recirculação e bypass. “O projeto de AVAC precisa conversar com o layout de racks desde o início, para que o fluxo de ar siga caminhos bem definidos, reduzindo perdas e garantindo uniformidade de temperatura na entrada dos equipamentos.”

Marcos Santamaria traz um dado crucial para a eficiência energética, que conecta diretamente ao regime de condensação a ar. “Com o confinamento de corredores, especialmente os quentes, as temperaturas do ar de saída dos equipamentos estão na faixa de 24°C, o que permite operar com temperaturas de água gelada acima de 18°C, aumentando significativamente a eficiência energética dos chillers.”

Isso significa que, ao contrário do passado, onde se exigia água gelada a 7°C, hoje é possível trabalhar com setpoints elevados (18°C ou mais), o que reduz drasticamente o trabalho dos compressores e viabiliza o free cooling.

Condensação a ar vs. condensação a água

Em um data center, qual o melhor regime de rejeição de calor? Essa é a pergunta que muitos engenheiros se fazem. A resposta dos especialistas aponta para uma mudança de paradigma: a condensação a ar está se tornando a preferência, mesmo em climas quentes, por razões de confiabilidade, sustentabilidade e custo operacional.

“A preferência pelo regime de condensação a ar está ligada à busca por simplicidade, robustez e menor dependência de água. Sistemas condensados a ar dispensam torres de resfriamento, bacias, bombas de água de condensação e parte expressiva da infraestrutura associada. Isso se traduz em menos equipamentos para operar, monitorar e manter, reduzindo pontos potenciais de falha”, explica o engenheiro da Klimatix.

Ele ressalta, ainda, a questão da sustentabilidade hídrica. “Muitos operadores de data centers têm adotado políticas de redução ou eliminação do uso de água nos sistemas de rejeição de calor, tanto por questões de sustentabilidade quanto de risco operacional. Nesse contexto, chillers com condensação a ar, combinados com free cooling, tornam-se uma solução bastante atrativa.”

Marcos Santamaria vai além e faz uma análise de custo operacional (OPEX) que derruba um mito antigo. “O menor consumo de energia elétrica da condensação a água em operações 24h — onde a temperatura ambiente cai à noite — é reduzido significativamente. Quando consideramos o custo da água consumida no processo, o sistema de condensação a ar passa a apresentar um custo mais baixo. Isso foi possível com o aprimoramento energético dos chillers de condensação a ar, com compressores centrífugos de rotação variável ou parafuso inverter, adotando free cooling. O outro motivo: a demanda de água de reposição para torres em hyperscale ficou tão alta que impacta o fornecimento das regiões, exigindo novas infraestruturas que nem sempre podem ser entregues no prazo.”

Conclusão prática para o engenheiro: a condensação a ar não é mais uma solução de segunda linha. Com compressores de alta eficiência em carga parcial e free cooling integrado, ela oferece o melhor equilíbrio entre confiabilidade (menos componentes), sustentabilidade (baixo ou zero consumo de água) e custo total.

Parâmetros de projeto: ASHRAE TC 9.9 e Norma ABNT NBR 17207

Para que o projeto seja seguro e auditável, é necessário seguir parâmetros bem definidos. Aqui, a referência mundial é a ASHRAE TC 9.9 – Thermal Guidelines for Data Processing Environments.

“As recomendações da ASHRAE TC 9.9, por meio das classes A1 a A4, estabelecem faixas de temperatura e umidade. Em muitos projetos, adota-se de 18°C a 27°C, com umidade relativa entre 40% e 60%, evitando eletricidade estática ou condensação. É essencial garantir uniformidade ao longo dos corredores, evitando pontos quentes”, esclarece Fonseca.

Ele reforça ainda a importância da modularidade e escalabilidade. “A infraestrutura de AVAC precisa ser modular e escalável para acomodar o crescimento da carga de TI (que pode chegar a 20 kW por rack ou mais) sem exigir reformas profundas. Metas de PUE (Power Usage Effectiveness) guiam a escolha de setpoints e estratégias de free cooling.”

Santamaria esclarece: “Os parâmetros de projeto mais usados mundialmente são os da ASHRAE TC 9.9, que já foram incorporados na Norma ABNT NBR 17207 publicada em 2025.”

Implicação prática: Projetar conforme a NBR 17207 (baseada na ASHRAE) não é apenas boa prática, é requisito de conformidade e due diligence. O uso de sensores distribuídos, BMS e DCIM é parte integrante desses parâmetros.

Equipamentos especiais: chilliers, CRAHs, CRACs e Fan Walls

Data centers não usam qualquer chiller ou UTA. Os equipamentos devem ser especificados com características que garantam operação contínua, controle preciso e facilidade de manutenção em quente.

Luiz Eduardo Salsa Fonseca explica as exigências para chillers. “Múltiplos compressores e mais de um circuito frigorífico, permitindo operação parcial mesmo com falha de um componente. Compressores de velocidade variável para eficiência em carga parcial. Capacidade de operar com temperaturas de água gelada elevadas (12°C/18°C em vez de 7°C/12°C), melhorando o COP.”

Sobre as unidades de tratamento de ar para a sala de computadores (CRAH – água gelada e CRAC – expansão direta), ele destaca: “Ventiladores EC ou com inversores de frequência para ajustar vazão conforme a necessidade. Seções de umidificação/desumidificação dimensionadas pelas diretrizes ASHRAE. Manutenção em operação: acesso facilitado para troca de componentes sem paralisação.”

O engenheiro da Tosi vai além. “Data centers utilizam chillers condensação a ar de alta eficiência, às vezes com free cooling, desenvolvidos para operar com temperaturas de água gelada mais altas (18°C ou mais). Utilizam CRAH (água gelada), CRAC (expansão direta) ou, mais recentemente, Fan Walls. Todos já incorporam CLP para ajuste em tempo real, monitoramento e registro de falhas. Também estão adotando unidades DOAS (Dedicated Outdoor Air System) para tratar o ar externo de renovação e pressurização, controlando o ponto de orvalho na faixa de 10°C a 13°C.”

Distribuição de ar, hidráulica e resfriamento líquido

A complexidade de um data center exige pensar em fan walls, bombas redundantes, tubulações em anel e, agora, resfriamento líquido direto ao chip.

In-row coolers e rear-door coolers permitem tratar o calor próximo à origem, reduzindo recirculação. Fan walls movimentam grandes volumes de ar com alta redundância. Bombas de água gelada com inversores e configuração N+1. Tubulações em anéis redundantes permitem isolar segmentos sem interromper a operação. Dry coolers, chillers com free cooling integrado ou soluções adiabáticas, dependendo da estratégia de uso de água”, são outras recomendações de Fonseca.

O engenheiro da Klimatix reforça, ainda, o papel da automação. “Controladores, gateways, sensores distribuídos – tudo integrado ao BMS e ao DCIM. É isso que permite manter o ambiente nos parâmetros definidos, mesmo diante de variações de carga, condições externas e falhas.”

Santamaria aborda a tendência mais disruptiva para altas densidades (IA e HPC). “Com o crescente aumento nas capacidades dos servidores, especialmente os voltados para IA, o resfriamento a ar não atende sozinho a demanda térmica. Têm sido adotados sistemas de resfriamento líquido direct to chip (sistema híbrido ar/líquido) ou sistemas de resfriamento líquido puro por imersão, com e sem mudança de fase do líquido dielétrico.”

A mensagem para o engenheiro de AVAC-R é que o futuro imediato é híbrido. A refrigeração a ar continua dominando a rejeição de calor das salas, mas o resfriamento líquido em nível de chip será obrigatório para racks acima de 30-40 kW.

TCO, PUE, comissionamento e diálogo TI-Infraestrutura

Para fechar, os especialistas deixam orientações práticas que podem definir o sucesso ou fracasso de um empreendimento.

Luiz Eduardo Salsa Fonseca enfatiza a análise do custo total de propriedade (TCO) e a métrica PUE. “Existe um esforço contínuo para elevar setpoints, explorar free cooling, adotar equipamentos de alta eficiência em carga parcial e otimizar a lógica de controle. A preocupação com sustentabilidade tem levado a soluções waterless (dry coolers, condensação a ar) ou sistemas adiabáticos com controle rigoroso do consumo de água.”

Ele destaca, também, a necessidade de integração entre TI e infraestrutura predial. “Projetos bem-sucedidos nascem do diálogo estreito entre arquitetos, projetistas de AVAC, engenheiros elétricos e equipes de TI. Ferramentas de DCIM correlacionam dados de ambiente, energia e TI, ampliando a capacidade de gestão.”

Por fim, um alerta sobre uma etapa frequentemente negligenciada. O comissionamento e os testes integrados assumem relevância maior em data centers. Não basta o sistema estar correto no papel. É preciso comprovar, por meio de testes com simulação de falhas e cargas variáveis, que ele alcança o nível de disponibilidade e desempenho termodinâmico esperado.

O novo papel do engenheiro de AVAC-R em data centers sustentáveis

Projetar, instalar e operar o sistema de climatização de um data center na era da IA exige uma mudança de mentalidade. Não se trata mais de copiar soluções de conforto ou de seguir receitas do passado. O regime de condensação a ar, outrora visto como menos eficiente, tornou-se a escolha preferencial por sua simplicidade, confiabilidade e — crucialmente — por eliminar ou reduzir drasticamente o consumo de água, um recurso cada vez mais crítico.

As lições dos especialistas são claras:

– Diferencie fundamentalmente AVAC para TI de AVAC para conforto, o uptime é determinante.

– Projetos com redundância (N+1, N+2) e caminhos independentes, baseados em extremos climáticos de 20 a 50 anos.

– Adote condensação a ar sempre que possível, especialmente quando a disponibilidade hídrica for incerta ou houver metas de sustentabilidade.

– Utilize setpoints de água gelada elevados (>18°C), viabilizados pelo confinamento de corredores quentes.

– Especifique equipamentos com múltiplos compressores, inversores, ventiladores EC e CLP integrado — CRAH, CRAC, Fan Walls e, para altas densidades, sistemas híbridos ou por imersão.

– Integre BMS, DCIM e sensores para monitoramento granular e ajuste dinâmico.

– Não ignore o comissionamento rigoroso com testes de falha simulada.

– Por fim, promova o diálogo contínuo entre as equipes de TI e de infraestrutura — o data center sustentável e confiável nasce dessa integração.

O desafio é imenso, mas a oportunidade também: engenheiros que dominarem essas tecnologias e estratégias estarão na vanguarda de um setor que movimenta bilhões e sustenta o mundo digital. E, ao fazer isso, contribuirão diretamente para mitigar o impacto ambiental de uma indústria que não pode parar, mas que também não pode ignorar o planeta.

Crédito da foto de abertura: ID 433207919 © Snehitdesign | Dreamstime.com

Tags:, , , , , ,

[fbcomments]