Os data centers vêm cada vez mais aumentando sua importância. Mais e mais atividades do cotidiano passaram a demandar de alguma forma um data center. Para quem não vive o mercado, talvez não perceba, mas para cada mensagem enviada de um celular, cada informação sobre o trânsito ou o clima, cada pagamento online ou uso de um GPS para se locomover, há um uso intensivo de dados. Hoje temos mais celulares ativos que pessoas no mundo! Além disso, nos últimos tempos a IA passou a ser utilizada de forma mais extensiva e isso demanda muito processamento por parte de um data center.

Em um equipamento de TI, praticamente, toda energia consumida é transformada em calor. Logo, quanto mais processamento, mais calor. Se em 2011 tínhamos uma média de 2,4kW/rack nos data centers, atualmente estamos com mais de 8kW/rack. Com isso, passamos por uma larga evolução nas estratégias de como retirar esse calor dos data centers. A maior parte dos data centers ainda utiliza o resfriamento por ar como estratégia principal e essa estratégia ainda é muito funcional para racks com até 10kW ou 15kW. Porém, quando passamos dessa potência, precisamos mirar outro tipo de estratégia para combater o aquecimento.

Atualmente, existem aplicações chegando à 100kW por rack e remover esse calor através do ar é inviável. Para essas aplicações de alta densidade, utilizam-se estratégias de resfriamento líquido. Essa técnica vem se desenvolvendo de forma muito rápida e hoje contamos com aplicações que trabalham totalmente submergidas em um líquido dielétrico. Além disso, esses fluidos podem trabalhar com temperaturas mais altas (alguns com até 70°C) o que torna o reaproveitamento desse calor para aquecimento muito atrativo, além da facilidade de se utilizar somente a temperatura ambiente exterior para reduzir a temperatura desse líquido, ou seja, sem uso de compressores e com baixo consumo energético.

Quando olhamos para a área de climatização de um data center, devemos ter em conta que estamos abordando o principal consumidor de energia de uma infraestrutura, ou seja, uma peça-chave nos custos operacionais. Isso posto, temos que olhar para o equilíbrio de três principais variáveis: confiabilidade, eficiência e redundância.

O aspecto da confiabilidade pode ser resumido da seguinte forma: operar de forma eficaz ao longo do tempo, ou seja, conseguir cumprir seu papel de manter uma condição ambiental favorável ao longo da vida útil do data center. Isso é muito importante, pois, na indústria de data centers não há margem para indisponibilidades. Uma interrupção de 1 segundo pode levar a horas de indisponibilidade de um serviço de TI e, por consequência, prejuízos financeiros enormes. Os equipamentos específicos para data centers são projetados para operar 24 horas por dia durante todos os dias do ano e não há margem para utilizar outros tipos de equipamentos menos confiáveis.

A eficiência está voltada para o aspecto ambiental e também para os custos operacionais. Considerando o ciclo de vida de um data center, os maiores custos estão na fase operacional. Portanto, um investimento inicial maior em equipamentos mais eficientes pode levar a um custo total de propriedade menor. Além disso, o aspecto ambiental vem sendo cada vez mais exigido por clientes e investidores, por isso, deve-se ter em conta também os níveis de emissão de carbono dos equipamentos selecionados (inclusive em sua produção e logística até o data center).

A redundância sempre acompanha a indústria dos data centers. Apesar de ter uma relação inversa com a eficiência (ou seja, quanto mais redundância menos eficiência), os data centers são ambientes de alta disponibilidade (para não dizer total disponibilidade) e têm que estar preparados para qualquer situação de contingência.

Historicamente, os principais parâmetros controlados em um data center são a temperatura e a umidade. Porém, a última atualização do Ashrae ThermalGuidelines for Data ProcessingEnvironments (5ª Edição) já apresenta a necessidade de se monitorar a qualidade do ar interior com respeito à contaminação por gases. Do ponto de vista operacional também é importante monitorar o diferencial de pressão entre os corredores quentes e frios e entre o interior e o exterior da sala de dados.

As diretrizes da Ashrae apontam dois tipos de limites ambientais: o recomendado e o permitido. Os limites recomendados são para todos os tipos de equipamentos, enquanto os limites permitidos variam de acordo com a classe do equipamento, que vai de A1 (mais restrita) a A4 (menos restrita). A maioria dos equipamentos em um data center é classificada como A1.

O limite de temperatura recomendado é de 18°C à 27°C na entrada do equipamento de TI para todos os casos. O limite inferior de umidade também é igual para todos os casos: -9°C PO (Ponto de Orvalho). Porém, os limites de umidade superior levam em conta o grau de contaminação do ar interior: a) para baixa concentração de contaminantes o limite superior de umidade é 70% UR (Umidade Relativa) e 15°C PO, b) para alta concentração de contaminantes o limite superior de umidade é 50% UR e 15°C PO, c) para a Classe A1, os limites permitidos são de 15°C a 32°C na entrada do equipamento de TI e umidade entre 8% UR e -12°C PO (inferior) até  80% UR e 17°C PO (superior).

Há diversas opiniões conflitantes sobre qual é o método mais eficaz e sustentável para resfriar um data center. No meu ponto de vista, isso depende muito das características do data center, isto é: tamanho, densidade, redundância e localização. Por exemplo, um data center utilizando técnica 100% freecooling deve analisar o impacto ambiental de descarte de filtros. Talvez um data center que utilize chillers, mas com uma energia 100% limpa, pode, no fim das contas, poluir menos que um data center com resfriamento líquido que utiliza energia proveniente de termoelétricas. A sustentabilidade tem que ser abordada de forma ampla e, por isso, acredito que não há somente uma resposta correta para esse desafio. Ter apoio profissional competente na hora da escolha é fundamental.

A MCC oferece serviços Análise de Desempenho Térmico em Data Centers, treinamentos personalizados e o serviço de TrustedAdvisor, apoiando o cliente para a tomada das melhores decisões quando precisar fazer um retrofit, construir um novo data center, melhorar a performance ou resolver problemas.

Alexandre Kontoyanis é especialista em projeto e operação de data centers na MCC e atual presidente do Ashrae chapter Brasil

Veja também:

Entre as tendências, estão freecooling e resfriamento adiabático

Estratégias para a redução do consumo energético são tendência no setor

Mercado de equipamentos para a climatização de data centers alcança R$ 350 milhões

Instalações de missão crítica requerem equipamentos premium

Tags:, ,

[fbcomments]