Os altos custos ambientais, devido ao uso intensivo de energia e água, obrigarão a indústria de data centers a investir em novas e mais eficazes tecnologias

Impulsionado pela transformação digital, a inteligência artificial e a demanda por computação em nuvem, o mercado global de data centers experimenta uma expansão sem precedentes. A Spherical Insights, consultoria global de análise de mercados, avalia que no ano passado esse mercado alcançou a marca de US$ 319,53 bilhões. Já a Fortune Business Insights estima o mercado de data centers para IA em US$ 15,02 bilhões no mesmo período. Por fim, a Business Research Insights, que segue uma metodologia de segmentação ampla por tipo e aplicação, aponta um valor de US$ 164,26 bilhões em 2024.

Independente de metodologias, o fato é que existe grande concordância em torno da inevitabilidade de uma expansão vigorosa nos próximos dez anos. Fala-se em um mercado global de US$ 987,68 bilhões até 2035, com taxa de crescimento anual composto (CAGR) de 10,80%. A mesma Business Research Insights, por exemplo, é mais ambiciosa ao projetar uma CAGR de 16,1%.

Grande parte do crescimento está ancorado no segmento de IA, que deve saltar de US$ 17,73 bilhões em 2025, para US$ 93,60 bilhões em 2032. Os grandes players do mercado projetam investimentos monstruosos na infraestrutura de IA,como os US$ 13,3 bilhões da Blackstone na Europa e a expansão da Microsoft na Itália.Todos os grandes provedores de nuvem, como AWS, Google e Microsoft, estão expandindo suas bases para suportar as altas cargas de trabalho de IA e armazenamento em nuvem.

Nesta marcha, têm se destacado a Ásia-Pacífico, especialmente a Índia, que avança para ser um hub global. A América Latina não fica atrás, com o Brasil atraindo 50% dos investimentos na região, comoem projetos como o Rio AI City, da ordem de R$ 5 bilhões. Por enquanto, a maioria dos projetos têm se concentrado em São Paulo, mas já avançam para outras regiões, como Rio Grande do Sul, Rio de Janeiro e Ceará.

Oportunidades e desafios

Um dos fatores de atração dos investimentos para o Brasil é a sua matriz energética, com predominância de fontes renováveis. No entanto, vários são os desafios. A começar pela deficiente rede de transmissão, particularmentedo Nordeste para o Sudeste. Questões regulatórias e burocráticas também influenciam; o processo de licenciamento pode chegar a 14 meses, contra 3 meses em mercados concorrentes. Também os impostos de importação de equipamentos reduzem a competitividade brasileira.

Mas, sem dúvida, os maiores desafios estão na área ambiental, não apenas no Brasil.Os data centers consomem, hoje, cerca de 1% de toda a eletricidadegerada no mundo. Até 2030 esse número deve duplicar. A estimativa para os EUA é de que os data centers consumirão até 12% da demanda total de eletricidade até 2030. Vale lembrar que um único data center de grande porte pode consumir a mesma quantidade de energia que alimenta uma cidade de porte médio.

O consumo de água é outra grande preocupação. Um data center típico pode usar de 3 a 5 milhões de litros de água por dia, equivalente ao consumo diário de uma cidade de 30.000 habitantes. Não à toa, em muitas regiões, têm acontecido protestos contra a instalação de data centers devido ao brutal consumo de água.

Em 2023, os data centers nos EUA emitiram 105 milhões de toneladas de CO₂, equivalente a 2% das emissões totais do país. Globalmente, essa indústria é responsável por aproximadamente 2% das emissões totais, rivalizando, neste aspecto,como setor de aviação.

Geração de lixo eletrônico é outro problema. O curto ciclo de vida do hardware, entre 3 e 5 anos, gera um acúmulo significativo de e-waste. O lixo eletrônico despejado pelos data centers cresce cinco vezes mais rápido do que todos os esforços de reciclagem. Não há que se desprezar, tampouco, o descarte inadequado de materiais como chumbo, mercúrio e cádmio no meio ambiente.

Acrescente-se a tudo isso os impactos nas vizinhanças, como a poluição sonora causada por geradores de backup e a pressão sobre as infraestruturas locais de energia e água. Na medida em que o Brasil se torna um destino atraente para data centers, devido à sua matriz energética relativamente limpa e disponibilidade de recursos hídricos, é necessário estabelecer normas e regulamentos para minimizar os impactos futuros. Por exemplo, o Sudeste brasileiro, para onde têm sido canalizados os maiores investimentos, é a região de maior estresse hídrico.

A ausência de regulação ambiental específica não ajuda. Vale notar que o Ministério do Meio Ambiente não tem sido muito considerado nas reuniões sobre política nacional de data centers. Preocupa, ainda, propostas para dispensar licenciamentos ambientais para data centers, classificando-os como “projetos de baixo impacto”.

Em resumo: se as oportunidades são imensas, os desafios e a necessidade de antecipação aos inevitáveis impactos são ainda maiores. A sobrecarga das redes elétricas aumentará os riscos de apagões. Áreas metropolitanas, devido a alta densidade, exigirão investimentos bilionários em infraestrutura. Daí, mais do que em qualquer outro tipo de instalação, é primordial trabalhar pela eficiência energética e fazer meticulosa gestão dos recursos hídricos em data centers.

Temperatura e umidade

De certa forma, consciente dos impactos no já frágil equilíbrio ecológico do Planeta, o mercado de data centers busca alternativas. Por exemplo, os parâmetros de temperatura e umidade vêm sendo alterados ao longo dos anos. “As zonas de controle ambiental variam muito de negócio para negócio. Atualmente os parâmetros recomendados mais utilizados no mundo estão na ThermalGuidelines for Data ProcessingEnvironments da Ashrae, que nos recomenda controlar a temperatura do ar de entrada nos equipamentos entre 18°C e 27°C. Sobre a umidade, esses limites variam de acordo com requisitos de concentração de contaminantes (NOx, SOx etc.), podendo chegar até os 70% de umidade”, esclarece o especialista em projeto e operação de data centers, Alexandre Kontoyanis.

Ronald Borduni, gerente nacional de vendas e soluções da Daikin, lembra que, no início da climatização voltada à TI, os ambientes de missão crítica eram denominados CPDs (Centros de Processamento de Dados) e possuíam diretrizes pouco padronizadas, sendo comum encontrar operações em temperaturas de 17 °C, com umidade relativa próximo a 50%.

“Com o tempo”, diz Borduni,“entendeu-se como a temperatura e umidade em data centers são determinantes para a disponibilidade e longevidade dos equipamentos e a eficiência energética da operação. A falha em manter os parâmetros ambientais fora dos limites recomendados pode ocasionar desde degradação de componentes eletrônicos até interrupções operacionais graves. Neste contexto, organismos internacionais como a Ashrae, vêm estabelecendo e atualizando diretrizes amplamente aceitas e utilizadas em escala global. No Brasil, a ABNT tem trabalhado para implementar padrões, normas e diretrizes mais adequadas a realidade brasileira. Essa evolução do setor ampliou o entendimento não só dos projetistas e consultores, mas gerou um norte para clientes manterem e operarem suas instalações, sendo comum encontrar projetos com temperaturas no datahall entre 18°C e 27°C e umidade relativa entre 40% e 60%.”

João Paulo Carvalho Mesquita, gerente de negócios e vendas da Klimatix, explica as diferenças. “Ao contrário dos sistemas de ar-condicionado para conforto, que operam com temperaturas fixas em torno de 23 °C, os data centers trabalham com faixas de temperatura e umidade específicas e precisas, definidas de acordo com a eficiência energética e a segurança dos equipamentos. Muitos projetos buscam reduzir ao máximo o uso do ar-condicionado, sem comprometer a operação, exigindo controle preciso da climatização.”

“Servidores Classe A1 com refrigeração a ar operam entre 15°C e 32°C, embora a Ashrae recomende de 18°C a 27°C para maior eficiência e segurança.Para sistemas de liquidcooling, especialmente com dissipação direta no chip, os ranges mais aplicados são 20°C-30°C e 30°C-40°C (entrada/retorno da água no trocador de calor)”, explica Márcio Fortunato, CEO da MGE Air.

CAG típica em uma instalação de data center (divulgação Armstrong)

Raphael Leite, da Armstrong Fluid Technology, também busca amparona Ashrae TC 9.9, que recomenda temperaturasentre 18 °C e 27 °C e umidade relativa (UR) entre 20% e 80%.“Destacando a importância do controle adequado do ponto de orvalho e da gestão da temperatura do ar de exaustão, pois é essencial garantir que o ambiente não atinja o ponto de orvalho para evitar condensação. A faixa de operação real gira entre 20 °C e 25 °C com UR de 40% a 60%, este sendo sempre um assunto sensível, pois a umidade e a temperatura são correlacionadas, para mantermos uma baixa temperatura e umidade relativa precisamos de um sistema de AVAC bem projetado e funcional, garantindo confiabilidade sem desperdício energético. Para instalações com resfriamento de líquido direto ao chip (liquidcooling) voltadas para IA, a temperatura padrão aproximada fica entre 30°C e 40°C no lado do chip (área onde circula a água vinda do CDU). O lado do sistema de resfriamento pode variar conforme a diferença entre o fluido de resfriamento e o chip desejado.”

Pontos críticos da instalação

Giancarlo Delatore, da engenharia de aplicação da Trane e diretor de tecnologia da Abrava, diz que a operação de um data center possui critérios extremamente rigorosos para manter o sistema sempre 100% operante (ou quase isso). “A queda parcial ou total de um data center pode acarretar prejuízos imensuráveis para os clientes daquela operação e até mesmo para a população em geral, visto que muitas ações básicas do dia a dia da sociedade dependem de um centro de dados.”

“Tendo em vista a criticidade operacional, a instalação de um data center segue critérios bastante específicos para buscar uma disponibilidade de 100% (ou seja, zero downtime), o que é teoricamente impossível, pois sempre há riscos residuais envolvidos, mesmo em data centers certificados Tier IV com todas as redundâncias necessárias. A infraestrutura de um data center começa na escolha do local onde será instalado, geralmente em uma região de alta disponibilidade e baixa instabilidade elétrica. A alimentação elétrica para o empreendimento, diferentemente de quase todos os empreendimentos convencionais, conta com duas fontes independentes de energia, além de no-breaks, para garantir a operação dos sistemas em caso de queda de energia, e geradores a diesel dimensionados para manter o site em plena operação durante dias. Tudo isso é complementado com componentes e sistemas redundantes para manter a operação mesmo em caso de falhas isoladas em algum componente do sistema”, continua Delatore.

“O sistema de AVAC também conta com redundâncias de equipamentos e infraestrutura. Sempre haverá um equipamento de backup em cada módulo de operação para garantir que, caso algum componente do sistema falhe ou entre em manutenção programada, a demanda de resfriamento do site continuará sendo integralmente atendida. Já o sistema de automação e controle, em alguns casos pode contar com infraestrutura física redundante para evitar falhas por falta de comunicação”, conclui o engenheiro de aplicação sênior da Trane.

Diogo Santos, engenheiro de projetos da Munters, faz algumas recomendações. “Um projeto bem elaborado de data center precisa equilibrar desempenho, segurança e custos. Para isso, é essencial seguir normas e boas práticas de construção, como a já mencionada Ashrae TC 9.9, além de outras referências importantes como ANSI/TIA-942, UptimeInstitute, entre outras diretrizes que podem ser exigidas pelos próprios provedores.”

Para o engenheiro da Munters, seguindo essas normas é possível identificar e mitigar pontos críticos, como: climatização do data hall: temperatura, umidade e fluxo de ar; infraestrutura elétrica: alimentação, backup e distribuição; redundância e disponibilidade: classificações TIER, N+1, 2N, entre outras; segurança física e lógica: controle de acesso, monitoramento e proteção contra falhas; escalabilidade: flexibilidade para futuras expansões; sustentabilidade e eficiência energética: indicadores como PUE e uso de fontes renováveis; e localização: avaliação de riscos ambientais, conectividade e logística.

Essas são, em termos gerais, também as recomendações de Mesquita, da Klimatix, que ressalta, dentre os principais desafios, o controle preciso de temperatura, de umidade e do fluxo de ar. “É essencial garantir uma climatização homogênea em toda a sala, já que os equipamentos eletrônicos estão distribuídos pelo espaço e são altamente sensíveis a variações térmicas. A distribuição de ar deve ser planejada com rigor, respeitando as normas técnicas aplicáveis, para assegurar o desempenho e a vida útil dos servidores.

Fortunato aborda outro aspecto da criticidade. “Os sistemas devem contar com infraestrutura elétrica redundante em configuração 2N, garantindo operação contínua mesmo durante manutenções programadas ou emergenciais. O mesmo nível de redundância é essencial para os sistemas de climatização e conectividade, assegurando a dissipação térmica constante e disponibilidade total.”

“Para sistemas de missão crítica, como é o caso de um data center, é essencial garantir a qualidade dos equipamentos e da execução da obra, disponibilidade geográfica, excelente fornecimento de energia elétrica e água, consideração do nível de Tier do data center para estabelecermos as redundâncias (N+1, 2N etc.). Controle preciso de temperatura e umidade, distribuição de ar eficiente, monitoramento e automação (BMS/DCIM), baixo PUE (Power UsageEffectiveness) além, é claro, de segurança física” são outros aspectos resumidos pelo engenheiro da Armstgrong.

Conceituação do projeto e eficiência energética

Após todo o balanço dos impactos ambiental e social de um data center, espera-se que nenhum projetista negligenciará eficiência energética e gestão dos recursos hídricos. No entanto, não custa enfatizar.

“Os projetos de novos data centers devem ser pensados da forma mais eficiente possível. Por mais que isso possa aumentar o investimento inicial em sua construção, um data center é um enorme consumidor de energia e vida útil estimada para lá dos 10 anos. Ter um custo operacional mais baixo é um fator chave para o sucesso, por exemplo, de um data center colocation. Alguns países no mundo já adotam critérios de eficiência mínima para autorização de novos projetos, como Singapura, Holanda, Irlanda, entre outros”, diz Kontoyanis.

“Um data center hyperscale pode consumir mais energia do que grandes cidades.E esse consumo, além de representar milhões em custos operacionais anuais, também implica em um maior investimento inicial, uma vez que toda a infraestrutura do data center é projetada com base na quantidade de energia que ele consumirá. Esse dimensionamento abrange desde os cabos de distribuição elétrica interna, passando pelos no-breaks e geradores, até a cabine primária do empreendimento e a alimentação elétrica disponível na rede. Em outras palavras, os grandes players de data centers estão em busca de soluções mais eficientes para reduzir custos operacionais e CapEx (Capital Expenditures, ou despesas de capital, na tradução)na implantação de novas operações. Em um projeto de um novo data center é crucial avaliar soluções integradas que tornem o sistema mais eficiente como um todo. Por exemplo, pode não ser a melhor solução optar por um rack que demande água gelada mais fria, pois isso exigirá um consumo superior nos chillers”, corrobora Delatore.

Raphael Leite insiste que a eficiência energética deve ser prioridade desde a fase conceitual. “Uso de freecooling, que evita a refrigeração mecânica, uma das maiores fontes de consumo de energia em data centers. A localização geográfica é fundamental, pois climas mais frios oferecem maior oportunidade para uso eficiente de freecooling, chillers de alta eficiência, sistemas de contenção térmica e controle automatizado. Um sistema de bombeamento com a melhor eficiência deve ser variável, conforme demanda (uso de inversores de frequência). Utilizar controle inteligente que integre sensores e comunicação com o BMS e projetado para mínima perda de carga e uso de bombas de alto rendimento.Soluções como bombas com tecnologia de autoajuste e monitoramento ativo de desempenho como a tecnologia Sensorlessda Armstrong Fluid Technology e sistema supervisório (Pump Manager) ajudam a reduzir significativamente o consumo energético.”

Lembrando que os sistemas de ar-condicionado podem representar entre 40% e 60% do consumo total de energia em um data center, o gerente de vendas e negócios da Klimatix diz que a escolha da solução AVAC é estratégica. “Os chillers com tecnologia de mancal magnético, por exemplo, oferecem alta eficiência energética e são ideais para cargas parciais — situação comum na fase inicial de operação de grandes data centers. Isso permite climatizar o ambiente de forma flexível e econômica.”

“Quando falamos de consumo de energia em data centers, a métrica fundamental é o PUE (Power UsageEffectiveness), que representa a relação entre o consumo total de energia do data center e a energia efetivamente utilizada pelos equipamentos de TI. Atualmente, busca-se alcançar um PUE inferior a 1,2”, enfatiza Santos, da Munters.

Em relação à métrica, Fortunato enfatiza que o consumo energético de um datacenter está diretamente ligado à sua função, já que 100% da energia usada pelos servidores se converte em calor. “A eficiência operacional depende de um sistema de climatização eficaz e de uma gestão térmica otimizada.A principal métrica de desempenho é o PUE, que representa a razão entre a energia total consumida pelo datacenter e a energia destinada à infraestrutura de TI.Valores mais baixos indicam maior eficiência. No Brasil, os projetos atuais visam PUE entre 1,4 e 1,5 em sistemas com refrigeração a ar, e entre 1,2 e 1,25 com refrigeração líquida.”

“Estudos apontam que o consumo de energia elétrica por data center representa entre 1% e 2% do consumo global de energiaelétrica — valor que tende a crescer com o avanço da inteligência artificial e cloud computing. Nesse cenário, a eficiência energética deixa de ser apenas um diferencial e se torna um requisito estratégico, tanto do ponto de vista técnico quanto econômico e, principalmente, ambiental. A conceituação de um projeto de data center que vise o mínimo consumoenergético possível deve considerar diversas frentes integradas”, resume Ronald Borduni.

O engenheiro da Daikin destaca algumas dessas “frentes integradas”: isolamento térmico adequado, equipamentos de alta eficiência, estratégias de controle que permitam aproveitar melhor a curva de eficiência dos diversos equipamentos e a concepção do projeto. Para ele, o local de instalaçãoganha centralidade. “Se possível, quanto da disponibilidade de energia e conectividade do site, escolher um local em que as condições climáticas permitam uso de estratégias e recursos que maximizem a eficiência do sistema, como freecooling ou mesmo se beneficiando do incremento de eficiência de equipamentos quando a temperatura externa é menor.”

Características dos equipamentos

“Em geral, os equipamentos recomendados para um data center são chamados de climatizadores de precisão”, explica Kontoyanis. “Esse tipo de equipamento tem como características principais a confiabilidade para operar 24×7 e um fator de calor sensível de até 100%, além de sensores e controles mais precisos e ágeis quando comparados a equipamentos de conforto. Obviamente, essas características elevam o custo do equipamento e, por vezes, assustam as pessoas que estão iniciando nesse mercado. Porém, são características vitais para o sucesso da operação”, completa o especialista em data centers.

Por isso, de acordo com Fortunato, “os sistemas devem ser robustos para operação contínua, com alta resiliência (elevado MTBF – Tempo Médio entre Falhas) e flexibilidade associada à redundância, visando baixo MTTR (Mean Time toRepair, ou Tempo Médio para Reparo, na tradução). Além disso, devem ser energeticamente eficientes para garantir PUE reduzido.”

“Os equipamentos utilizados atualmente em data centers apresentam características que garantem uma operação mais eficiente e otimizada. Entre os aspectos mais relevantes, destacam-se a alta capacidade de remoção de calor sensível, fundamental para manter a temperatura estável diante da crescente densidade dos racks, e a elevada eficiência energética, que impacta diretamente na redução do PUE. Além disso, a alta disponibilidade e confiabilidade desses equipamentos asseguram uma operação contínua, sem interrupções. É igualmente imprescindível que esses sistemas sejam compatíveis com plataformas de monitoramento predial (BMS – Bulding Management System), permitindo controle e gestão centralizados. Também é essencial que estejam em conformidade com normas técnicas reconhecidas, como a Ashrae, e atendam a padrões internacionais de sustentabilidade e eficiência, como Leed e ISO/IEC 30134. Dessa forma, garante-se que a infraestrutura atenda aos mais altos requisitos de qualidade, desempenho e responsabilidade ambiental”, recomenda Santos, da Munters.

No caso da expansão indireta — tecnologia predominante —, os chillers externos devem apresentar eficiência energética certificada (como o selo AHRI) e capacidade de operar com cargas térmicas variáveis. Já nas unidades internas, os equipamentos de precisão são responsáveis pelo controle fino da temperatura e da umidade, sendo totalmente customizados para aplicações críticas como as de data centers”, complementa Mesquita.

Para o engenheiro da Armstrong, instalações de data centers requerem “bombas e chillers de alta eficiência energética, controle de velocidade, compatibilidade com redundância, automação (monitoramento em tempo real, alarmes, controle preditivo e integração com plataformas de TI), fácil manutenção e sistemas abertos de comunicação, o que facilita a manutenção e controle universal da instalação.”

Lembrando que a climatização de data centers é uma “especialidade dentro da engenharia térmica que demanda precisão”, Borduni defende que cada componente do sistema de climatização seja selecionado com base em critérios técnicos rigorosos, visando garantir a continuidade operacional, a proteção da infraestrutura de TI e a eficiência global da instalação. “Diferentemente de ambientes comerciais, onde as variáveis humanas são preponderantes, nos data centers o foco está em manter as condições psicrométricas dentro de uma faixa ideal para os servidores — com temperatura, umidade e fluxo de ar estáveis, mesmo sob variações de carga térmica.”

Neste sentido, ele enfatiza que as unidades de climatização de precisão são os elementos centrais do sistema de climatização para TI.“Podem ser CRAC (Computer Room Air Conditioner) que, tipicamente, são de expansão direta ou CRAH (Computer Room Air Handler) que utilizam água gelada, ou fanwalls, equipamentos com alta capacidade e vazão utilizando água gelada. Os CRAC, CRAH e fanwalls são responsáveis por remover calor do datahall; então, são equipamentos muito próximos à carga, devendo ter capacidade de controle fino de temperatura e umidade, redundância de ventiladores, compatibilidade com a arquitetura de contenção de ar (corredores quente/frio), fácil integração ao sistema de controle, sensores que permitam monitorar corretamente o funcionamento do sistema e alarmes, além de alta confiabilidade e eficiência.”

Quais devem ser as credenciais de uma instaladora

Para Kontoyanis, apenas uma equipe técnica qualificada e treinada especificamente para a área de data centers pode ter sucesso numa instalação do tipo. “Muitas empresas acreditam que um sistema de resfriamento de um data center é muito similar ao de um hospital ou um shopping center, e está longe disso. Requisitos de qualidade da instalação e um processo de comissionamento extremamente rigoroso são fundamentais nessa indústria.”

Fazendo eco ao argumento, o engenheiro da Daikin lembra que a instalação de sistemas de climatização em data centers não é uma atividade convencional, exigindo mais que o conhecimento técnico em sistemas de climatização. “Ela requer um nível elevado de precisão técnica, conformidade normativa, domínio de tecnologias críticas e, acima de tudo, uma cultura organizacional voltada à confiabilidade e rastreabilidade. Isso se deve ao fato de que qualquer erro, mesmo pontual, pode comprometer a disponibilidade dos serviços de TI, afetando bancos de dados, aplicações corporativas e redes de comunicação. Por isso, as empresas instaladoras responsáveis pelos sistemas de climatização em data centers devem atender a uma série de exigências técnicas, legais, operacionais e comportamentais.”

“A instaladora deve ter profundo conhecimento técnico do projeto, das premissas de operação e do sistema como um todo. Além disso, é fundamental que seja homologada pelo fabricante dos equipamentos, garantindo qualidade na execução e aderência às exigências técnicas específicas do ambiente de data center”, complementa Mesquita, da Klimatix.

Tendências predominantes

As tecnologias que visam fornecer eficiência energética e garantir o funcionamento eficaz de data centers estão em constante evolução. Mas, segundo Kontoyanis, não há como não falar do resfriamento líquido.“Com o aumento da densidade dos chips (CPUs, GPUs etc.) tornou-se inviável a utilização do ar como meio de troca de calor. Ainda há muita pesquisa e desenvolvimento nessa área, porém, a técnica dominante atualmente é o resfriamento direto dos chips, chamados de DLC. Nesse tipo de sistema, utiliza-se um fluido para absorver o calor dos chips (maiores ofensores do ponto de vista de carga térmica),sendo os demais componentes (memórias, discos, fontes etc.) resfriados de forma convencional por meio do ar. Importante ressaltar que, no curto e médio prazo, não se vislumbra a substituição do resfriamento convencional por ar pelo líquido, mas sim uma coexistência entre eles, isso é, sistemas híbridos de resfriamento.”

Delatore, da Trane, ajuda a explicar o entusiasmo de Kontoyanis. “Observamos uma significativa evolução na tecnologia dos processadores, com a redução contínua da área dos chips e o aumento exponencial do TDP (Thermal Design Power), que é a quantidade de calor que um sistema de resfriamento precisa ser capaz de dissipar durante a operação contínua do chip. A redução da área e o aumento do calor a ser dissipado fazem com que a densidade térmica das novas GPUs seja tão alta que os métodos convencionais de resfriamento por convecção de ar se tornem insuficientes para manter as temperaturas dentro dos limites estabelecidos pelos fabricantes. Consequentemente, torna-se necessário migrar a forma de resfriamento dos chips de ar para líquido, uma vez que os líquidos possuem um coeficiente de transferência de calor por convecção muito superior ao do ar. É importante destacar que não estamos nos referindo à água, pois o fluido utilizado para retirar o calor dos processadores deve ser especial para essa aplicação e não deve conduzir eletricidade. Um fluido com alta condutividade, como a água, poderia representar um grande risco para os componentes eletrônicos do data center.”

“Esse método de resfriamento dos processadores através de um fluido dielétrico, continua o engenheiro da Trane,“é denominadoliquidcooling, uma tecnologia que vem ganhando espaço globalmente e se destacando como a única opção tecnicamente viável para resfriar data centers de altíssima densidade térmica.O resfriamento deste fluido, por sua vez, é feito através de um equipamento trocador de calor intermediário chamado CDU (CoolingDistribution Unit), que utiliza a água proveniente dos chillers para manter o fluido dielétrico em uma temperatura segura e adequada dentro dos parâmetros do fabricante para a operação das GPUs.”

Borduni relaciona algumas soluções que ganham espaço. “Técnicas como soluções modulares, em que as estruturas e salas técnicas são pré-montadas em fábrica, simplificam o trabalho em campo, facilitam o faseamento do projeto com a compatibilização de custos e ainda permitem a realização de testes funcionais do conjunto integrado ainda em fábrica. Os sistemas de controle e automação mais modernos também são uma tendência, com adoção de tecnologias de inteligência artificial e machine learningenquanto soluções que estão sendo mais aplicadas para permitir a melhor gestão do sistema com foco em disponibilidade e eficiência. E a principal tendência do mercado é a adoção de resfriamento líquido ou liquidcooling, ainda embrionárias no Brasil, embora os novos empreendimentos em desenvolvimentoprevejam soluções de resfriamento líquido, e pelo menos metade desses empreendimentos já consideram a tecnologia.”

Diogo Santos também cita o resfriamento líquido como uma solução promissora para lidar com cargas térmicas cada vez mais elevadas. “Com o crescimento da demanda por aplicações de inteligência artificial, observamos um aumento significativo na carga térmica dos racks. Se antes era comum trabalhar com cargas em torno de 10 kW por rack, hoje já se fala em 20 kW a 40 kW e, em alguns casos, com IA, esse número pode chegar a 100 kW. Nesses níveis, o resfriamento por ar já não é suficiente, e é nesse contexto que o resfriamento líquido se torna essencial”

“Paralelamente, os data centers verdes despontam como outra grande tendência. Essas instalações operam com 100% de energia proveniente de fontes renováveis e buscam certificações como Leed, ISO 50001, Carbon Neutral e Green Grid. O objetivo é alcançar melhores índices de eficiência, como o PUE, e promover a reutilização inteligente da energia, alinhando desempenho operacional com responsabilidade ambiental”, completa o engenheiro da Munters.

“O uso crescente de inteligência artificial irá definir muito as próximas tecnologias empregadas nos sistemas AVACR em data centers, tanto no seu controle, para otimização térmica, manutenção preditiva e controle automático, quanto em relação a demanda em si, pois, em sistemas de armazenamento e processamento de dados para inteligência artificial, utilizamos soluções como imersão liquida (immersioncooling) e de resfriamento liquido (liquidcooling), que vêm ganhando espaço devido à sua alta eficiência térmica. A Armstrong vem trabalhando constantemente no emprego de novas tecnologias em seus equipamentos para que possamos atender as demandas geradas neste setor em expansão”, informa Leite.

“Existe um potencial de crescimento muito significativo no mercado de data centers no Brasil, mas é crucial que o país acompanhe as tendências e ofereça condições que atendam às necessidades dos grandes players, incentivando o investimento no Brasil. Outro ponto importante é que há uma janela curta para a decisão sobre onde serão implantados data centers de treinamento de IA, e o Brasil tem grande potencial para captar algumas dessas oportunidades, desde que ofereça segurança aos investidores”, alerta o engenheiro da Trane e diretor de tecnologia da Abrava.

Ronaldo Almeida -Editor e publisher da revista Abrava +
Climatização & Refrigeração

Veja também:

Disponibilidade de energia é preocupação global

O mercado precisa se preparar para a grande expansão

Crédito de foto http://www.dreamstime.com/stock-image-green-data-centers-row-modular-data-center-pods-nestled-solar-fields-evaporative-cooling-ponds-visible-them-image381788111

Tags:, , ,

[fbcomments]