abr
12
2012

HP e Google contam como reduzir custo de energia do data center

A execução de vários servidores, equipamentos de armazenamento e de rede faz com a conta de energia elétrica fique nas alturas. Esse é o motivo dos operadores de data center trabalharem constantemente em maneiras de melhorar a eficiência da energia. Algumas empresas de tecnologia do Vale do Silício (Calofórnia, EUA) noticiaram progressos consideráveis na melhoria do uso de energia e uma organização nacional mostrou que a eficiência média também melhorou, embora alguns operadores tenham mais sucesso do que outros.

o O índice é medido pelo que chamamos de eficiência de poder de uso (power usage effectiveness – PUE), que é a relação entre o consumo de energia dos servidores, incluindo luzes, refrigeração de equipamentos, sistemas de circulação de ar, e outros itens, conhecidos coletivamente de “sobrecarga”. Se um centro de dados tem a PUE de 2.0, isso significa que para cada quilowatt-hora de eletricidade usado para gerar os ciclos do computador, outro quilowatt-hora está sendo consumido pela sobrecarga.  O ideal é que o PUE fique perto de 1.0.

Segundo o Uptime Institute – que rastreia essas estatísticas – a média de PUE nos data centers pesquisados em 2011 foi e 1.83, o que significa que a energia de sobrecarga custa 83% do custo de eletricidade para o equipamento de computação. Esses dados foram recolhidos de 525 operadores da área, 71% dos quais estão na América do Norte.

O Google relatou um PUE de apenas 1.14 no final de 2011, uma média de todos data centers, o que significa que o uso da energia de sobrecarga é de apenas 14% do consumo de eletricidade. “Fiquei maravilhado com a notícia”, afirmou Joe Kava, diretor sênior de construção e operação de centro de dados do Google, que blogou sobre os números em 26 de março. O PUE de 2011 teve uma melhoria quando comparado com a taxa de 1.16 de 2012 e de 1.22 de 2008, que foi quando a empresa começou a rastrear seu uso de energia.

Os operadores têm inúmeras alavancas à sua disposição para gerenciar o consumo de energia, afirmou Kava, mas o maior consumo da sobrecarga está no custo do resfriamento do equipamento. Mais de 70% das oportunidades de economia de energia estão nessa área. “A maneira mais fácil é aumentar a temperatura do centro de dados, da mesma forma que você faz na sua casa”.

Outra maneira de economia no resfriamento é onde se direciona o ar gelado. Muitas vezes, os racks dos servidores só estão parcialmente cheios, então não tem sentido enviar a ar gelado nas áreas vazias. A resposta é instalar placas de vedação para cobrir esses espaços vazios.

Outra opção é usar o ar de fora o máximo possível, especialmente em climas frios. A HP abriu um centro de dados o ano passado em Fort Collins (Colorado, EUA) e durante épocas do ano, consegue levar o ar gelado da Rocky Mountainpara esfriar seus servidores, afirmou Doug Oathout, vice-presidente de TI sustentável da HP. Ele diz que o PUE das instalações no local é de 1.35; a média dos outros centros de dados da empresa é de 1.55. A empresa também opera outro centro de dado em Wynyard, Inglaterra, que é localizado na costa do Mar do Norte, o ar gelado do local dá à instalação o PUE de apenas 1.19.

Segundo Jon Koomey, professor em engenharia civil e de meio ambiente na Universidade de Stanford diferentes centros de dados têm experiências de sucesso distintos na área. Ele as separa em três categorias: centro de dados in house, operados por empresas que estão na indústria de produção, em vez de TI – Boing, McDonald’s, For ou Procter & Gamble; centro de dados de provedores de serviço em nuvem como o Google, Amazon ou Microsoft; e centro de dados de computação de alto desempenho, geralmente encontrados em universidades e instalações de pesquisa.

Centro de dados in -house tendem a ter os piores PUEs, porque o gerenciamento de TI e das instalações são feitos em departamentos diferentes, com receita diferenciada. Provedores de nuvem têm tudo “sob um único teto”, afirma Koomey, então a TI e as instalações estão juntas e o resultadoé muito melhor

Os centros de dados HPC também têm PUEs favoráveis porque geralmente não operam  centro de dados de back-up, o que teoricamente pode dobrar o consumo de energia. Se um servidor em uma instalação de pesquisa cai, a equipe de TI geralmente repara o erro e reinicia, em vez de automaticamente cair em outro servidor, já que o trabalho não é uma missão crítica.

Apesar do uso de sobrecarga de eletricidade ter caído, Koomey diz que também é necessário que haja um esforço na área de computação. Os fabricantes de processadores como a Intel e AMD costumam falar sobre a melhora do desempenho por watt em seus chips, mas ainda há espaço para melhoria em armazenamento e equipamento de rede.

E o PUE não é uma medida definitiva acerca da eficiência do centro de dados. PUE é apenas um fator de cálculo do custo total de propriedade (TCO – total cost of ownership) do centro de dados, juntamente com o custo de capital do equipamento, da instalação e do valor do imóvel, taxa de juros e trabalho. É possível remodelar o centro de dados e terminar com uma PUE menor, apenas baixando o TCO.

.

Fonte: Originalmente publicado por IT Web em 11 de abril de 2012