HIPERESCALABILIDADE: O FUTURO DOS DATA CENTERS

HIPERESCALABILIDADE: O FUTURO DOS DATA CENTERS

Compartilhe:
A tecnologia de ponta e a miniaturização sempre foram consideradas conceitos inseparáveis, mas os grandes avanços tecnológicos do século XXI estão surgindo na forma de instalações monumentais.
O termo “data center” é, para começar, uma presunção. Ele lembra uma época em que os sistemas de informações de back-office de uma empresa eram principalmente dedicados ao armazenamento de dados e eram montados em um só porão ou em uma pequena sala. A “infraestrutura” era percebida como se fosse um sistema de esgoto ou a fundação de um prédio. Era algo que ninguém deveria ver ou prestar atenção.
Atualmente, essas premissas foram derrubadas. A infraestrutura de TI de uma empresa é composta pela sua capacidade de processamento e conectividade, além de armazenamento de dados. E, como a própria empresa, a infraestrutura tem uma tendência natural a se distribuir.

 

  Hiperescala não se trata de grandeza 

Um data center em hiperescala é menos como um armazém e mais como um hub de distribuição, ou o que a área de varejo da Amazon chamaria de “centro de fornecimento”. Embora hoje em dia essas instalações sejam muito grandes e sejam operadas por provedores de serviços de grande porte, a hiperescala não se trata, na realidade, de grandeza, mas de escalabilidade.
Imagine por um momento, uma fábrica em que todos os componentes envolvidos na fabricação de um produto, incluindo o transportador que traz as peças para a linha de montagem, estão situados modularmente em uma pequena área. Você leu isso corretamente: uma pequena área. Agora, imagine a funcionalidade desse módulo se tornando tão eficiente e confiável que você pode aumentar seu rendimento exponencialmente simplesmente conectando mais desses módulos de forma linear, como uma fazenda em que, se você duplicar sua área cultivada, mais do que duplicará sua produção.
Hiperescala é a automação aplicada a indústrias que deveriam estar dominando o processo de automação. Refere-se a organizações que são grandes, bem administradas e que controlam todos os aspectos de sua produção. Mas, também se trata da disseminação de práticas de hiperescala em todos os locais de data center, não apenas os eBays e as Amazons da vida, mas também em organizações menores. Você sabe a quais setores estou me referindo: empresas farmacêuticas, empresas de serviços financeiros e provedores de telecomunicações.
Um fornecedor de equipamentos de data center recentemente chamou a hiperescala de “grande demais para a maioria das mentes imaginar”. A escalabilidade sempre foi relacionada a criar oportunidades para fazer pequenas coisas usando recursos que abrangem uma escala muito grande.

 

  O que significam “hiper” e “escala”? 

Especificamente, um data center em hiperescala realiza o seguinte:
Maximiza a eficiência de refrigeração. A maior despesa operacional na maioria dos data centers de todo o mundo, mais do que alimentar os servidores, é alimentar os sistemas de controle climático. Uma estrutura de hiperescala pode ser particionada para dividir as cargas de trabalho de computação de alta intensidade e concentrar o poder de resfriamento nos servidores que hospedam essas cargas de trabalho. Para cargas de trabalho de uso geral, uma arquitetura em hiperescala otimiza o fluxo de ar ao longo de toda a estrutura, garantindo que o ar quente flua em uma direção (mesmo que seja serpentina) e recuperando frequentemente o calor desse fluxo de exaustão para fins de reciclagem.
Aloca energia elétrica em pacotes distintos. Nas instalações projetadas para serem ocupadas por vários inquilinos, “blocos” são alocados como lotes em um conjunto habitacional. Aqui, os racks que ocupam esses blocos recebem um número definido de quilowatts ou, mais recentemente, frações de megawatts da fonte de alimentação principal. Quando um inquilino aluga um espaço de um provedor de colocation (housing), esse espaço geralmente é definido não em termos de número de racks ou metragem quadrada, mas em quilowatts. Um design mais influenciado pela hiperescala ajuda a garantir que os quilowatts estejam disponíveis quando um cliente precisar deles.
Garante disponibilidade de eletricidade. Muitos data centers corporativos são equipados com fontes de energia redundantes (os engenheiros chamam essa configuração de 2N), geralmente com backup de uma fonte ou gerador secundário (2N + 1). Uma instalação de hiperescala também pode utilizar uma dessas configurações, embora, nos últimos anos, os sistemas de gerenciamento de carga de trabalho tornaram possível a replicação de cargas de trabalho entre servidores, tornando redundantes as cargas de trabalho em vez da energia, reduzindo os custos elétricos. Como resultado, os data centers mais modernos não exigem toda essa redundância de energia. Eles podem se safar com apenas N + 1, economizando não apenas os custos com equipamentos, mas também os custos com a construção de espaços.
Equilibra cargas de trabalho entre servidores. Como o calor tende a se espalhar, um servidor superaquecido pode facilmente se tornar um incômodo para os outros servidores e equipamentos de rede nas proximidades. Quando as cargas de trabalho e a utilização do processador são monitoradas adequadamente, as máquinas virtuais e / ou contêineres que abrigam cargas de trabalho de alta intensidade podem ser realocadas ou distribuídas entre processadores mais adequados para essas funções ou que simplesmente não têm utilização tão intensa no momento. Mesmo a distribuição de cargas de trabalho se correlaciona diretamente com a redução de temperatura, portanto, como um data center gerencia seu software é tão importante quanto como mantém seus sistemas de suporte.

 

  Quão grande é “Grande”? 

O que faz com que uma grande instalação esteja em hiperescala não é seu tamanho, mas sim como seu design permite que seus inquilinos façam o melhor uso possível de seus recursos com o tamanho disponível. A AFCOM (Advancing Data Center and IT Infrastructure Professionals), associação para profissionais de data center, desenvolveu uma métrica para distinguir entre classes de instalações de data center. Ele conta o número de racks que a instalação hospeda e também o número de pés quadrados ou de metros quadrados dedicados apenas aos componentes de TI (“white space“). Ela então combina os dois números com o gráfico abaixo e escolhe o nome da métrica usando o número na linha mais alta. Por exemplo, uma instalação com 120 racks em 6.000 pés quadrados de espaço em branco seria considerada “Média”, já que 6.000 está dentro da faixa mais alta.

Figura 1. Como definir o tamanho de um data center (fonte: AFCOM)

Para fornecer uma referência, uma estimativa do setor de varejo de 2017 da área útil média dos supermercados norte-americanos ativos era de cerca de 4.400 metros quadrados.
Se você já viu ou participou da construção de um supermercado, sabe que o objetivo de construir uma instalação grande de varejo é alavancar a maior eficiência possível para maximizar a lucratividade. Certamente o valor total absoluto para alimentar, refrigerar ou aquecer um prédio grande é maior, mas o custo pode ser mais baixo por metro quadrado ou metro cúbico.
Os custos não serão menores, no entanto, se o edifício não for construído com as eficiências e as práticas recomendadas. Em outras palavras, se você está aumentando o edifício apenas por aumentar, não está fazendo bom uso de nenhuma das economias de escala inatas que uma opção de tamanho maior oferece.
Uma fábrica funciona de maneira semelhante. Se você projetar um espaço maior de fábrica com a eficiência em mente, a eficiência se traduzirá em custos operacionais mais baixos e maior lucratividade para tudo o que será produzido lá.
Um data center é uma fábrica de informações. Ele produz todos os recursos e funcionalidades que você usa no lado oposto da conexão com a Internet, a partir do seu navegador ou aplicativo para smartphone.
O Synergy Research Group, uma empresa de inteligência de marketing que analisa as empresas do setor de serviços de data center, define um data center em hiperescala como um grande complexo operado por, pelo menos, um “provedor de hiperescala”. Com isso, o Synergy Research se refere a uma organização que gerencia suas grandes instalações usando os princípios de hiperescala listados acima. Em janeiro de 2018, a empresa estimou que, no final do ano passado, o mundo possuía um total geral de 430 instalações de hiperescala, 40% das quais localizadas nos EUA.

 

  Por que a automação de data center é semelhante à mudança climática? 

Pode parecer uma questão que não tem relação nenhuma com o tema, mas o fato é: o clima do nosso planeta é tão instável desse jeito, porque pequenas mudanças em uma parte do ecossistema podem ter impactos em cascata no restante (efeito borboleta).
Assim, uma redução na camada de ozônio devido a poluentes químicos fará com que o Sol aqueça os oceanos a uma taxa maior, mudando a direção das correntes de ar e causando tempestades mais turbulentas. Os efeitos do ar descendente do Canadá e do ar ascendente do Golfo do México são ampliados.
Em um data center corporativo típico, equipamentos com 10 anos de idade ou mais coexistem com componentes novos do chão de fábrica. Como resultado, sua topologia de rede tende a adquirir certa “textura”, onde alguns segmentos apresentam desempenho melhor que outros.
A topologia de um data center é como a superfície do nosso planeta, pequenas alterações em um aspecto podem ter efeitos em cascata em toda a instalação. Se determinados processadores parecem ter um desempenho melhor do que outros, por exemplo, os orquestradores de carga de trabalho podem preferir esses processadores aos de outros servidores. Como resultado, os servidores com os processadores preferidos se aquecem mais rapidamente. As correntes de ar dentro da instalação mudam, pois o ar quente expelido pode ficar preso em bolsões onde o ar não está circulando tanto. Ironicamente, esses aumentos locais de temperatura afetam os servidores subutilizados, dificultando o processamento de dados e a expulsão de calor.

 

  Um padrão de referência para o mercado 

O Facebook está entre as poucas organizações com poder de compra para especificar exatamente como seus data centers são arquitetados, construídos e operados, até o tipo de cimento usado em suas fundações. Em 2014, o Facebook publicou suas especificações para a arquitetura dos data centers que constrói e a montagem de seus equipamentos de TI. Essas especificações definiram um padrão para todo o mercado de tecnologia voltado para data centers em hiperescala (servidores, módulos de energia, cabos de rede, painéis de supressão, ladrilhos, extintores, etc.).

Figura 2. Diagrama 3D da topologia de rede em hiperescala do Facebook (Fonte: Facebook)

 

  “Hiperescala” é mais uma palavra que significa “hiperconvergência”? 

Não. Elas têm o mesmo prefixo, que é sua principal semelhança. A hiperconvergência (HCI) refere-se à capacidade de um sistema de gerenciamento de infraestrutura de data center (DCIM) agrupar os recursos de vários servidores (computação, memória, armazenamento, rede) e delegar esses recursos para cargas de trabalho individuais. É uma maneira de pensar em tudo o que um servidor contribui para o data center como se fossem fluidos, em vez de ficarem isolados em caixas separadas.
Um data center em hiperescala pode fazer bom uso de servidores que empregam HCI. Mas o HCI não é um requisito essencial para tornar os data centers eficientes no uso de espaço, energia e refrigeração.

  “Hiperescala” significa “uma nuvem muito grande”? 

Não. Uma plataforma em nuvem é um meio para implantar cargas de trabalho flexíveis em um grupo de servidores em cluster. E sim, os recursos nesses servidores podem ser ajustados para cima ou para baixo, um recurso que os operadores de hiperescala exigem.
Porém, uma plataforma em nuvem como o VMware Cloud Foundation ou o OpenStack é voltada para que os administradores corporativos possam gerenciar os requisitos de recursos (juntamente com a necessidade ocasional de recursos), que são imprevistos e sujeitos a alterações frequentes.
Os administradores podem entrar no sistema e fazer ajustes ou novas solicitações de aprovisionamento à vontade. Um ambiente de hiperescala, por outro lado, é voltado para automação consistente. Se estiver funcionando corretamente, não há necessidade de “entrar” e fazer alterações. Ele gerenciará as cargas de trabalho no próximo ano da mesma maneira que estão sendo gerenciadas este ano. Um dos requisitos do governo dos EUA para um serviço de computação em nuvem, publicado pelo instituto NIST do Departamento de Comércio, é que seus recursos possam ser provisionados usando um portal de autoatendimento.
Portanto, embora os serviços públicos de um fornecedor de nuvem, como a Amazon, certamente se qualifiquem como nuvem, suas operações de hiperescala para gerenciar essa nuvem representam uma categoria completamente diferente.

  Colocation (housing) estende a hiperescala a toda a empresa 

Até pouco tempo, um data center corporativo estava presumivelmente localizado em algum lugar da empresa. Para muitas organizações, um data center ainda pode estar localizado on-premises ou pode contar com várias instalações distribuídas em várias filiais.
Porém, em um ambiente empresarial moderno, o colocation é uma opção extremamente atraente. Um contrato de colocation, como qualquer outro negócio imobiliário, é um arrendamento de uma área de espaço dentro das instalações do data center do locador. Ele permite que um inquilino implante seu próprio equipamento em um edifício que geralmente é grande, muito bem gerenciado, fortemente protegido, bem alimentado e resfriado adequadamente.
Segundo levantamento de 2019 do Data Center Map, o Brasil conta com 45 data centers que oferecem serviços de colocation, sendo a maior concentração no Estado de São Paulo (14 data centers), seguido pelo Estado do Rio de Janeiro (7 unidades).
Talvez esses complexos de data centers não reflitam exatamente a arquitetura e o tamanho de um data center do Facebook, onde todo o complexo é essencialmente homogeneizado. Mas, considerando que vários inquilinos trarão uma variedade de equipamentos heterogêneos, empregam um tipo de método inspirado em hiperescala para controlar o espaço e automatizar a distribuição do fluxo de ar e energia nesses espaços.

 

  Os limites dos clusters 

A maioria das redes de data center atuais foi construída usando clusters. Um cluster é uma grande unidade de implantação, envolvendo centenas de gabinetes de servidores com switches TOR (Top of Rack), agregados em um conjunto de grandes switches de cluster high-radix. Apesar de existirem arquiteturas confiáveis que oferecem redundância de cluster switch de 3 + 1, ou seja, 10x a capacidade média dos grandes projetos de cluster e por mais eficazes que tenham sido as primeiras instalações de data center, a arquitetura focada em cluster já apresenta limitações.

  Conclusão 

A capacidade para sermos ágeis e apoiarmos um crescimento rápido deve estar no centro de uma filosofia de design de infraestrutura. Ao mesmo tempo, devemos sempre nos esforçar para manter nossa infraestrutura de rede simples o suficiente, para que equipes pequenas e altamente eficientes de profissionais possam gerenciá-la. O objetivo é tornar a implantação e a operação de nossas redes mais fáceis e rápidas ao longo do tempo, apesar da escala e do crescimento exponencial.
Transforme o seu data center em uma vantagem competitiva. Uma infraestrutura de TI moderna fornece a automatização e a eficiência necessárias para fazer mais em menos tempo, com menos recursos econômicos e financeiros. As empresas que estão passando pela modernização dos seus data centers já percebem resultados reais com seus investimentos.

 

O Grupo Qualität é formado pelas integradoras Qualität IT e O2TB, somos uma consultoria que auxilia nossos clientes a se preparar para os desafios da Transformação Digital e a obter a agilidade, rapidez e escalabilidade necessárias para melhorar a experiência dos seus clientes e oferecer melhores produtos e serviços de forma mais rápida.
Com mais de 20 anos de experiência, estamos preparados para acelerar e impulsionar os nossos clientes e a criar parcerias duradouras e agregadoras.
Tem um projeto em mente? Entre em contato conosco.

Fontes: “How Hyperscale Data Centers are Reshaping all of IT”, (2019) – ZDNet.
“Introducing data center fabric, the next-generation Facebook data center network”, (2014) Facebook.