Centro de dados - Data center

Data center ARSAT (2014)

Um data center ( inglês americano ) ou data center ( inglês britânico ) é um edifício , um espaço dedicado dentro de um edifício ou um grupo de edifícios usado para hospedar sistemas de computador e componentes associados, como telecomunicações e sistemas de armazenamento .

Como as operações de TI são cruciais para a continuidade dos negócios , geralmente inclui componentes redundantes ou de backup e infraestrutura para fornecimento de energia , conexões de comunicação de dados, controles ambientais (por exemplo, ar condicionado , supressão de incêndio) e vários dispositivos de segurança. Um grande data center é uma operação em escala industrial que usa tanta eletricidade quanto uma pequena cidade.

História

Sala do computador de controle da missão da NASA c. 1962

Os data centers têm suas raízes nas enormes salas de computadores da década de 1940, tipificadas pelo ENIAC , um dos primeiros exemplos de data center. Os primeiros sistemas de computador, complexos de operar e manter, exigiam um ambiente especial para operar. Muitos cabos foram necessários para conectar todos os componentes e métodos para acomodá-los e organizá-los foram concebidos, como racks padrão para montar o equipamento, pisos elevados e bandejas de cabos (instalados acima ou sob o piso elevado). Um único mainframe exigia muita energia e precisava ser resfriado para evitar superaquecimento. A segurança tornou-se importante - os computadores eram caros e frequentemente usados ​​para fins militares . Portanto, foram elaboradas diretrizes básicas de projeto para controlar o acesso à sala de informática.

Durante o boom da indústria de microcomputadores, e especialmente durante a década de 1980, os usuários começaram a implantar computadores em todos os lugares, em muitos casos com pouco ou nenhum cuidado com os requisitos operacionais. No entanto, conforme as operações de tecnologia da informação (TI) começaram a crescer em complexidade, as organizações se conscientizaram da necessidade de controlar os recursos de TI. A disponibilidade de equipamentos de rede de baixo custo , aliada a novos padrões de cabeamento estruturado de rede , possibilitou o uso de um projeto hierárquico que colocava os servidores em uma sala específica dentro da empresa. O uso do termo "data center", aplicado a salas de computadores especialmente projetadas, começou a ganhar reconhecimento popular nessa época.

O boom dos data centers veio durante a bolha das pontocom de 1997–2000. As empresas precisavam de conectividade rápida com a Internet e operação ininterrupta para implantar sistemas e estabelecer presença na Internet. A instalação de tais equipamentos não era viável para muitas empresas menores. Muitas empresas começaram a construir instalações muito grandes, chamadas de centros de dados de Internet (IDCs), que fornecem recursos aprimorados, como backup cruzado: "Se uma linha da Bell Atlantic for cortada, podemos transferi-los para ... para minimizar o tempo de interrupção. "

O termo data centers em nuvem (CDCs) foi usado. Os data centers normalmente custam muito para construir e manter. Cada vez mais, a divisão desses termos quase desapareceu e eles estão sendo integrados ao termo "data center".

Requisitos para data centers modernos

Racks de equipamentos de telecomunicações em parte de um data center

A modernização e a transformação do data center aumentam o desempenho e a eficiência energética .

A segurança da informação também é uma preocupação e, por isso, um data center deve oferecer um ambiente seguro que minimize as chances de uma violação de segurança. Um data center deve, portanto, manter altos padrões para garantir a integridade e a funcionalidade de seu ambiente de computador hospedado.

A empresa de pesquisa do setor International Data Corporation (IDC) estima a idade média de um data center em nove anos. O Gartner , outra empresa de pesquisa, diz que os data centers com mais de sete anos estão obsoletos. O crescimento dos dados (163 zetabytes até 2025) é um fator que impulsiona a necessidade de modernização dos data centers.

O foco na modernização não é novo: a preocupação com equipamentos obsoletos foi desacreditada em 2007, e em 2011 o Uptime Institute preocupou-se com a idade dos equipamentos nele contidos. Em 2018, a preocupação havia mudado mais uma vez, desta vez para a idade da equipe: "a equipe do data center envelhece mais rápido do que o equipamento".

Atendendo aos padrões para data centers

O Padrão de Infraestrutura de Telecomunicações da Associação da Indústria de Telecomunicações para Data Centers especifica os requisitos mínimos para a infraestrutura de telecomunicações de data centers e salas de computador, incluindo data centers corporativos de locatário único e datacenters de hospedagem de Internet multilocatário. A topologia proposta neste documento se destina a ser aplicável a data centers de qualquer tamanho.

Telcordia GR-3160, Requisitos NEBS para equipamentos e espaços de data center de telecomunicações, fornece diretrizes para espaços de data center em redes de telecomunicações e requisitos ambientais para o equipamento destinado à instalação nesses espaços. Esses critérios foram desenvolvidos em conjunto pela Telcordia e representantes da indústria. Eles podem ser aplicados a espaços de data center que abrigam equipamentos de processamento de dados ou de Tecnologia da Informação (TI). O equipamento pode ser usado para:

  • Operar e gerenciar a rede de telecomunicações de uma operadora
  • Fornece aplicativos baseados em data center diretamente para os clientes da operadora
  • Fornece aplicativos hospedados para terceiros para fornecer serviços aos seus clientes
  • Fornece uma combinação desses e de aplicativos de data center semelhantes

Transformação de data center

A transformação do data center tem uma abordagem passo a passo por meio de projetos integrados executados ao longo do tempo. Isso difere de um método tradicional de atualizações de data center que adota uma abordagem serial e isolada. Os projetos típicos em uma iniciativa de transformação de data center incluem padronização / consolidação, virtualização , automação e segurança.

  • Padronização / consolidação: reduzir o número de data centers e evitar a proliferação de servidores (físicos e virtuais) geralmente inclui a substituição de equipamentos antigos de data centers e é auxiliado pela padronização.
  • Virtualização: reduz despesas operacionais e de capital, reduz o consumo de energia. Os desktops virtualizados podem ser hospedados em centros de dados e alugados por assinatura. O banco de investimento Lazard Capital Markets estimou em 2008 que 48% das operações corporativas serão virtualizadas até 2012. O Gartner vê a virtualização como um catalisador para a modernização.
  • Automatização: a automação de tarefas como provisionamento , configuração, aplicação de patches , gerenciamento de versões e conformidade é necessária, não apenas quando se enfrenta menos profissionais de TI qualificados.
  • Segurança: a proteção de sistemas virtuais é integrada à segurança existente de infraestruturas físicas.

Sala de máquinas

O termo "Sala de Máquinas" às vezes é usado para se referir à grande sala dentro de um Data Center onde a Unidade Central de Processamento real está localizada; isso pode ser separado de onde as impressoras de alta velocidade estão localizadas. O ar condicionado é o mais importante na sala de máquinas.

Além do ar condicionado, deve haver equipamentos de monitoramento, um dos quais é detectar a água antes de situações de nível de inundação. Uma empresa, por várias décadas, compartilhou suas ideias: Water Alert. A empresa, a partir de 2018, tinha dois fabricantes concorrentes (Invetex, Hydro-Temp) e três distribuidores concorrentes (Longden, Northeast Flooring, Slayton).

Chão elevado

Ladrilho perfurado de refrigeração.

Um guia de padrões de piso elevado denominado GR-2930 foi desenvolvido pela Telcordia Technologies , uma subsidiária da Ericsson .

Embora a primeira sala de computadores com piso elevado tenha sido construída pela IBM em 1956, e eles existem "desde 1960", foi a década de 1970 que tornou mais comum os centros de computação permitirem, assim, que o ar frio circulasse com mais eficiência.

O primeiro objetivo do piso elevado era permitir o acesso à fiação.

Luzes apagadas

O data center "apagado", também conhecido como data center escuro ou escuro, é um data center que, idealmente, praticamente eliminou a necessidade de acesso direto pelo pessoal, exceto em circunstâncias extraordinárias. Devido à falta de necessidade de entrada de funcionários no data center, ele pode ser operado sem iluminação. Todos os dispositivos são acessados ​​e gerenciados por sistemas remotos, com programas de automação usados ​​para realizar operações autônomas. Além da economia de energia, redução nos custos de pessoal e a capacidade de localizar o local mais longe dos centros populacionais, a implementação de um data center apagado reduz a ameaça de ataques maliciosos à infraestrutura.

Níveis e camadas do data center

As duas organizações nos Estados Unidos que publicam padrões de data center são Telecommunications Industry Association (TIA) e o Uptime Institute .

Normas internacionais EN50600 e ISO22237 Tecnologia da informação - Instalações e infraestruturas de data center

  • Solução de caminho único de classe 1
  • Classe 2 de caminho único com solução de redundância
  • Caminhos múltiplos de Classe 3, fornecendo uma solução simultânea de reparo / operação
  • Caminhos múltiplos de Classe 4 fornecendo uma solução tolerante a falhas (exceto durante a manutenção)

Associação da Indústria de Telecomunicações

A Telecommunications Industry Association 's TIA-942 padrão para centros de dados, publicado em 2005 e atualizado quatro vezes desde, definidos quatro níveis de infra-estrutura.

  • Nível 1 - basicamente uma sala de servidores , seguindo as diretrizes básicas
  • Nível 4 - projetado para hospedar a maioria dos sistemas de computador de missão crítica, com subsistemas totalmente redundantes, a capacidade de operar continuamente por um período indefinido de tempo durante as interrupções de energia primária.

Uptime Institute - padrão de classificação de nível de data center

Quatro níveis são definidos pelo padrão do Uptime Institute :

  • Nível I: é descrito como CAPACIDADE BÁSICA e deve incluir um UPS
  • Nível II: é descrito como CAPACIDADE REDUNDANTE e adiciona energia e refrigeração redundantes
  • Nível III: é descrito como CONCORRENTEMENTE MANUTENÇÃO e garante que QUALQUER componente possa ser retirado de serviço sem afetar a produção
  • Nível IV: é descrito como TOLERANTE DE FALHAS permitindo que qualquer capacidade de produção seja isolada de QUALQUER tipo de falha.

Design de data center

O campo do design de data centers vem crescendo há décadas em várias direções, incluindo novas construções grandes e pequenas, juntamente com a reutilização criativa de instalações existentes, como espaço de varejo abandonado, antigas minas de sal e bunkers da era da guerra.

  • um data center de 65 andares já foi proposto
  • o número de data centers em 2016 cresceu além de 3 milhões nos EUA e mais do que o triplo desse número em todo o mundo

Os códigos de construção locais podem reger as alturas de teto mínimas e outros parâmetros. Algumas das considerações no projeto de data centers são:

Um rack de servidor típico, comumente visto em colocation
  • tamanho - uma sala de um edifício, um ou mais andares ou um edifício inteiro, e pode conter 1.000 ou mais servidores
  • espaço, energia, refrigeração e custos no data center.
CRAC Air Handler
  • Infraestrutura de engenharia mecânica - aquecimento, ventilação e ar condicionado ( HVAC ); equipamentos de umidificação e desumidificação; pressurização.
  • Projeto de infraestrutura de engenharia elétrica - planejamento de serviços públicos; distribuição, comutação e desvio de fontes de energia; sistemas de fonte de alimentação ininterrupta (UPS); e mais.

Critérios de design e trade-offs

  • Expectativas de disponibilidade : O custo de evitar o tempo de inatividade não deve exceder o custo do próprio tempo de inatividade
  • Seleção do local : Fatores de localização incluem proximidade a redes de energia, infraestrutura de telecomunicações, serviços de rede, linhas de transporte e serviços de emergência. Outros são rotas de voo, usos vizinhos, riscos geológicos e clima (associados aos custos de resfriamento).
    • Freqüentemente, a energia disponível é a mais difícil de ser alterada.

Alta disponibilidade

Existem várias métricas para medir a disponibilidade de dados que resulta da disponibilidade do data center além do tempo de atividade de 95%, com o topo da escala contando quantos "noves" podem ser colocados após "99%".

Modularidade e flexibilidade

Modularidade e flexibilidade são elementos-chave para permitir que um data center cresça e mude ao longo do tempo. Os módulos do data center são blocos de construção padronizados e pré-projetados que podem ser facilmente configurados e movidos conforme necessário.

Um data center modular pode consistir em equipamentos de data center contidos em contêineres de transporte ou contêineres portáteis semelhantes. Os componentes do data center podem ser pré-fabricados e padronizados, o que facilita a movimentação, se necessário.

Controle ambiental

A temperatura e a umidade são controladas por meio de:

  • Ar condicionado
  • resfriamento indireto, como o uso de ar externo, unidades de resfriamento evaporativo indireto (IDEC) e também o uso de água do mar.

Energia elétrica

Um banco de baterias em um grande data center, usado para fornecer energia até que os geradores a diesel possam iniciar

A energia de reserva consiste em uma ou mais fontes de alimentação ininterrupta , bancos de baterias e / ou geradores de turbina a diesel / gás .

Para evitar pontos únicos de falha , todos os elementos dos sistemas elétricos, incluindo sistemas de backup, são normalmente totalmente duplicados e os servidores críticos são conectados às fontes de alimentação do "lado A" e do "lado B". Esse arranjo geralmente é feito para obter redundância N + 1 nos sistemas. As chaves de transferência estática às vezes são usadas para garantir a comutação instantânea de uma fonte para a outra no caso de falha de energia.

Roteamento de cabo de baixa tensão

As opções incluem:

  • O cabeamento de dados pode ser encaminhado por meio de bandejas de cabos suspensas
  • Cabeamento em piso elevado, por motivos de segurança e para evitar a adição de sistemas de refrigeração acima dos racks.
  • Data centers menores / mais baratos sem piso elevado podem usar ladrilhos antiestáticos para a superfície do piso.

Fluxo de ar

O gerenciamento do fluxo de ar atende à necessidade de melhorar a eficiência de resfriamento do computador do data center , evitando a recirculação do ar quente exaurido do equipamento de TI e reduzindo o fluxo de ar de desvio. Existem vários métodos de separação de fluxos de ar quente e frio, como contenção de corredor quente / frio e unidades de resfriamento em linha.

Contenção de corredor

A contenção do corredor frio é feita expondo a parte traseira dos racks de equipamentos, enquanto as frentes dos servidores são fechadas por portas e tampas.

Configuração típica de corredor frio com frentes de rack de servidor voltadas uma para a outra e ar frio distribuído pelo piso elevado .

Os gabinetes de computador geralmente são organizados para conter corredores quentes / frios. A canalização evita que o ar frio e o ar de exaustão se misturem. Fileiras de gabinetes são emparelhadas para que o ar frio possa alcançar as entradas de ar do equipamento e o ar quente possa retornar aos chillers sem mistura.

Alternativamente, uma variedade de painéis sob o piso podem criar passagens de ar frio eficientes direcionadas aos ladrilhos ventilados do piso elevado. Tanto o corredor frio quanto o corredor quente podem ser contidos.

Outra alternativa é instalar gabinetes com dutos de exaustão verticais (chaminé). As saídas de exaustão quentes podem direcionar o ar para um plenum acima de um teto rebaixado e de volta para as unidades de resfriamento ou ventilações externas. Com esta configuração, a configuração tradicional de corredor quente / frio não é um requisito.

Proteção contra fogo

Tanques de supressão de incêndio FM200

Os data centers contam com sistemas de proteção contra incêndio , incluindo elementos passivos e ativos de Design , além da implementação de programas de prevenção contra incêndio nas operações. Os detectores de fumaça são geralmente instalados para fornecer um alerta precoce de um incêndio em seu estágio inicial.

Duas opções à base de água são:

Segurança

O acesso físico geralmente é restrito. A segurança em camadas geralmente começa com cercas, postes de amarração e armadilhas . A vigilância por câmeras de vídeo e guardas de segurança permanentes estão quase sempre presentes se o data center for grande ou contiver informações confidenciais. Mantraps de reconhecimento de impressão digital está começando a ser comum.

O acesso ao registro é exigido por alguns regulamentos de proteção de dados; algumas organizações vinculam isso fortemente aos sistemas de controle de acesso. Múltiplas entradas de registro podem ocorrer na entrada principal, entradas para salas internas e em gabinetes de equipamentos. O controle de acesso em gabinetes pode ser integrado a unidades de distribuição de energia inteligentes , de forma que as fechaduras sejam conectadas em rede através do mesmo aparelho.

Uso de energia

O uso de energia é uma questão central para data centers. O consumo de energia varia de alguns kW para um rack de servidores em um armário a várias dezenas de MW para grandes instalações. Algumas instalações têm densidades de energia mais de 100 vezes maiores do que um edifício comercial típico. Para instalações de alta densidade de energia, os custos de eletricidade são uma despesa operacional dominante e representam mais de 10% do custo total de propriedade (TCO) de um data center.

Os custos de energia em 2012 frequentemente excederam o custo do investimento de capital original. O Greenpeace estimou o consumo mundial de energia do data center em 2012 em cerca de 382 bilhões de kWh. Os data centers globais usaram cerca de 416 TWh em 2016, quase 40% a mais do que todo o Reino Unido; O consumo de DC nos EUA foi de 90 bilhões de kWh.

Emissão de gases de efeito estufa

Em 2007, estima-se que todo o setor de tecnologias de informação e comunicação ou TIC seja responsável por cerca de 2% das emissões globais de carbono, com data centers sendo responsáveis ​​por 14% da pegada de TIC. A EPA dos EUA estima que os servidores e data centers são responsáveis ​​por até 1,5% do consumo total de eletricidade dos EUA, ou cerca de 0,5% das emissões de GEE dos EUA, em 2007. Dado um cenário usual de negócios, projeta-se a emissão de gases de efeito estufa dos data centers para mais do que dobrar em relação aos níveis de 2007 até 2020.

Em uma investigação de 18 meses por acadêmicos do Instituto Baker de Políticas Públicas da Rice University em Houston e do Instituto de Infodinâmica Aplicada e Sustentável em Cingapura, as emissões relacionadas ao data center irão mais do que triplicar até 2020.

Eficiência energética e despesas gerais

A métrica de eficiência energética mais comumente usada para a eficiência energética do data center é a eficiência no uso de energia (PUE), calculada como a proporção da energia total que entra no data center dividida pela energia usada pelo equipamento de TI.

Ele mede a porcentagem de energia usada pela sobrecarga (refrigeração, iluminação, etc.). O data center médio dos EUA tem um PUE de 2,0, o que significa dois watts de potência total (sobrecarga + equipamento de TI) para cada watt entregue ao equipamento de TI. O estado da arte é estimado em cerca de 1,2. O Google publica a eficiência trimestral de data centers em operação.

A Agência de Proteção Ambiental dos EUA tem uma classificação Energy Star para centros de dados autônomos ou grandes. Para se qualificar para o rótulo ecológico, um data center deve estar dentro do quartil superior de eficiência energética de todas as instalações relatadas. A Lei de Melhoria da Eficiência Energética de 2015 (Estados Unidos) exige que as instalações federais - incluindo data centers - operem com mais eficiência. O título 24 (2014) da Califórnia do Código de Regulamentações da Califórnia determina que todo data center recém-construído deve ter alguma forma de contenção do fluxo de ar para otimizar a eficiência energética.

A União Europeia também tem uma iniciativa semelhante: Código de Conduta da UE para Centros de Dados.

Análise e projetos de uso de energia

O foco de medir e analisar o uso de energia vai além do que é usado por equipamentos de TI; o hardware de suporte da instalação, como chillers e ventiladores, também consome energia.

Em 2011, os racks de servidores em data centers foram projetados para mais de 25 kW e estimou-se que o servidor típico desperdiçaria cerca de 30% da eletricidade que consumia. A demanda de energia por sistemas de armazenamento de informações também estava aumentando. Estima-se que um data center de alta disponibilidade tenha uma demanda de 1 mega watt (MW) e consuma US $ 20 milhões em eletricidade durante sua vida útil , com o resfriamento representando 35% a 45% do custo total de propriedade do data center . Os cálculos mostraram que, em dois anos, o custo de energia e refrigeração de um servidor poderia ser igual ao custo de aquisição do hardware do servidor. A pesquisa em 2018 mostrou que uma quantidade substancial de energia ainda pode ser conservada otimizando as taxas de atualização de TI e aumentando a utilização do servidor.

Em 2011 , o Facebook , a Rackspace e outros fundaram o Open Compute Project (OCP) para desenvolver e publicar padrões abertos para tecnologias de computação de data center mais verdes. Como parte do projeto, o Facebook publicou os designs de seu servidor, que havia sido construído para seu primeiro data center dedicado em Prineville. Tornar os servidores mais altos deixou espaço para dissipadores de calor mais eficazes e permitiu o uso de ventiladores que movem mais ar com menos energia. Por não comprar servidores de prateleira comerciais , o consumo de energia devido a slots de expansão desnecessários na placa - mãe e componentes desnecessários, como uma placa de vídeo , também foi salvo. Em 2016, o Google se juntou ao projeto e publicou os designs de seu rack de data center raso de 48 Vcc. Esse projeto fazia parte dos data centers do Google há muito tempo . Ao eliminar os vários transformadores normalmente implantados em data centers, o Google alcançou um aumento de 30% na eficiência energética. Em 2017, as vendas de hardware de data center construído para projetos OCP chegaram a US $ 1,2 bilhão e devem chegar a US $ 6 bilhões em 2021.

Análise de energia e refrigeração

Data center no CERN (2010)

Energia é o maior custo recorrente para o usuário de um data center. Resfriá-lo a uma temperatura igual ou inferior a 21 ° C (70 ° F) desperdiça dinheiro e energia. Além disso, o equipamento de resfriamento em ambientes com alta umidade relativa pode expor o equipamento a uma grande quantidade de umidade que facilita o crescimento de depósitos de sal nos filamentos condutores do circuito.

Uma análise de energia e resfriamento , também conhecida como avaliação térmica, mede as temperaturas relativas em áreas específicas, bem como a capacidade dos sistemas de resfriamento para lidar com temperaturas ambientes específicas. Uma análise de energia e resfriamento pode ajudar a identificar pontos quentes, áreas super-resfriadas que podem lidar com uma maior densidade de uso de energia, o ponto de interrupção do carregamento do equipamento, a eficácia de uma estratégia de piso elevado e o posicionamento ideal do equipamento (como unidades AC) para equilibrar as temperaturas em todo o data center. A densidade do resfriamento energético é uma medida de quanta metragem quadrada o centro pode resfriar na capacidade máxima. O resfriamento de data centers é o segundo maior consumidor de energia depois dos servidores. A energia de resfriamento varia de 10% do consumo total de energia nos data centers mais eficientes e vai até 45% nos data centers padrão refrigerados a ar.

Análise de eficiência energética

Uma análise de eficiência energética mede o uso de energia de equipamentos de TI e instalações do data center. Uma análise de eficiência energética típica mede fatores como a eficácia do uso de energia (PUE) de um data center em relação aos padrões da indústria, identifica fontes mecânicas e elétricas de ineficiência e identifica métricas de gerenciamento de ar. No entanto, a limitação da maioria das métricas e abordagens atuais é que elas não incluem a TI na análise. Os estudos de caso mostraram que, ao abordar a eficiência energética de forma holística em um data center, podem ser alcançadas grandes eficiências que não seriam possíveis de outra forma.

Análise de dinâmica de fluidos computacional (CFD)

Este tipo de análise usa ferramentas e técnicas sofisticadas para entender as condições térmicas exclusivas presentes em cada data center - prevendo a temperatura, o fluxo de ar e o comportamento da pressão de um data center para avaliar o desempenho e o consumo de energia, usando modelagem numérica. Ao prever os efeitos dessas condições ambientais, a análise CFD no data center pode ser usada para prever o impacto de racks de alta densidade misturados com racks de baixa densidade e o impacto posterior nos recursos de resfriamento, práticas de gerenciamento de infraestrutura deficientes e falha AC ou AC desligamento para manutenção programada.

Mapeamento de zona térmica

O mapeamento de zona térmica usa sensores e modelagem de computador para criar uma imagem tridimensional das zonas quentes e frias em um data center.

Essas informações podem ajudar a identificar o posicionamento ideal do equipamento do data center. Por exemplo, servidores críticos podem ser colocados em uma zona fria que é servida por unidades AC redundantes.

Data centers verdes

Este data center refrigerado a água no porto de Estrasburgo , França, reivindica o atributo verde .

Os data centers consomem muita energia, consumida por dois usos principais: a energia necessária para operar o equipamento real e, em seguida, a energia necessária para resfriar o equipamento. A eficiência energética reduz a primeira categoria.

A redução do custo de resfriamento de formas naturais inclui decisões de localização: quando o foco não está perto de boa conectividade de fibra, conexões de rede elétrica e concentração de pessoas para gerenciar o equipamento, um data center pode estar a quilômetros de distância dos usuários. Data centers 'massivos', como Google ou Facebook, não precisam estar próximos a centros populacionais. Os locais árticos podem usar o ar externo, que fornece resfriamento, e estão se tornando mais populares.

Fontes renováveis ​​de eletricidade são outra vantagem. Assim, países com condições favoráveis, como: Canadá, Finlândia, Suécia, Noruega e Suíça, estão tentando atrair data centers de computação em nuvem.

A mineração de bitcoins está cada vez mais sendo vista como uma forma potencial de construir centros de dados no local de produção de energia renovável. A energia reduzida e cortada pode ser usada para garantir transações no blockchain do Bitcoin, fornecendo outro fluxo de receita para os produtores de energia renovável.

Reutilização de energia

É muito difícil reutilizar o calor que vem dos data centers resfriados a ar. Por este motivo, as infraestruturas dos centros de dados são mais frequentemente equipadas com bombas de calor. Uma alternativa às bombas de calor é a adoção de refrigeração líquida em todo o data center. Diferentes técnicas de resfriamento a líquido são misturadas e combinadas para permitir uma infraestrutura totalmente resfriada por líquido que captura todo o calor da água. Diferentes tecnologias de líquidos são categorizadas em 3 grupos principais, resfriamento indireto a líquido (racks resfriados a água), resfriamento direto a líquido (resfriamento direto ao chip) e resfriamento líquido total (imersão completa em líquido, consulte Resfriamento por imersão no servidor ). Essa combinação de tecnologias permite a criação de uma cascata térmica como parte dos cenários de encadeamento de temperatura para criar saídas de água em alta temperatura do data center.

Infraestrutura dinâmica

A infraestrutura dinâmica oferece a capacidade de mover cargas de trabalho de forma inteligente, automática e segura dentro de um data center a qualquer hora, em qualquer lugar, para migrações, provisionamento , para melhorar o desempenho ou construir instalações de co-localização . Também facilita a realização de manutenção de rotina em sistemas físicos ou virtuais, ao mesmo tempo que minimiza a interrupção. Um conceito relacionado é a infraestrutura composta, que permite a reconfiguração dinâmica dos recursos disponíveis para atender às necessidades, apenas quando necessário.

Os benefícios colaterais incluem

Infraestrutura de rede

Um engenheiro de operação supervisionando uma sala de controle de operações de rede de um data center (2006)
Um exemplo de infraestrutura de rede de um data center

Hoje, as comunicações nos centros de dados são mais frequentemente baseadas em redes que executam o conjunto de protocolos IP . Os data centers contêm um conjunto de roteadores e switches que transportam o tráfego entre os servidores e o mundo externo, que são conectados de acordo com a arquitetura de rede do data center . A redundância da conexão com a Internet geralmente é fornecida pelo uso de dois ou mais provedores de serviço upstream (consulte Multihoming ).

Alguns dos servidores no data center são usados ​​para executar os serviços básicos de Internet e intranet necessários aos usuários internos da organização, por exemplo, servidores de e-mail, servidores proxy e servidores DNS .

Os elementos de segurança de rede também são normalmente implantados: firewalls , gateways VPN , sistemas de detecção de intrusão e assim por diante. Também são comuns os sistemas de monitoramento da rede e alguns dos aplicativos. Sistemas adicionais de monitoramento fora do local também são típicos, no caso de uma falha de comunicação dentro do data center.

Backup de software / dados

As opções não mutuamente exclusivas para backup de dados são:

  • No local
  • Fora do local

No local é tradicional e uma das principais vantagens é a disponibilidade imediata.

Armazenamento de backup externo

As técnicas de backup de dados incluem uma cópia criptografada externa dos dados. Os métodos usados ​​para transportar dados são:

  • fazer com que o cliente grave os dados em um meio físico, como fita magnética, e depois transportar a fita para outro lugar.
  • transferir diretamente os dados para outro site durante o backup, usando os links apropriados
  • enviar os dados "para a nuvem"

Data center modular

Para implantação rápida ou recuperação de desastres , vários grandes fornecedores de hardware desenvolveram soluções móveis / modulares que podem ser instaladas e tornadas operacionais em um tempo muito curto.

Veja também

Notas

Referências

links externos

  • Lawrence Berkeley Lab - Pesquisa, desenvolvimento, demonstração e implantação de tecnologias e práticas de eficiência energética para data centers
  • Energia CC para data centers do futuro - Perguntas frequentes: teste de 380 VCC e demonstração em um data center da Sun.
  • White Paper - Impostos sobre a propriedade: o novo desafio para data centers
  • Projeto de data center H2020 EURECA da Comissão Europeia - diretrizes de eficiência energética de data centers, amplo material de treinamento online, estudos de caso / palestras (na página de eventos) e ferramentas.