Adentro Datacenter Solutions

X

A Universidade da Califórnia em San Diego adotou uma estratégia em nuvem que envolve a retirada de três mainframes, transferindo o máximo possível da carga de trabalho da computação para a nuvem e abandonando o software local em favor do software como serviço, sempre que viável.

“Há muito tempo percebi que o CIO deveria ser mais um líder da cadeia de suprimentos do que alguém que acompanha as especificações de hardware”, disse Vince Kellen, diretor de informática da Universidade da Califórnia – San Diego. “Para a maioria dos nossos problemas de negócios, o hardware não importa”.

Um número crescente de gerentes de tecnologia da informação sente o mesmo. Por mais de 60 anos, tanto o potencial quanto as limitações da computação foram definidos por processadores, memória, armazenamento e outros componentes feitos de metal e silício. O papel central da organização de TI tem sido proteger e otimizar esses preciosos ativos, usando exércitos de administradores de sistemas e pessoas com chaves de fenda que mantêm as luzes do data center acesas.

Cerca de 20 anos atrás, a virtualização começou o processo de abstrair as porcas e parafusos do hardware, tornando a infraestrutura uma única entidade amorfa gerenciada por software. A computação em nuvem promoveu o processo na última década, tornando o hardware um recurso abstrato que, para os clientes, é cada vez mais um problema para outra pessoa gerenciar.

Porém, em uma reviravolta surpreendente, a nuvem está, na verdade, desencadeando uma enxurrada de inovações de hardware – começando com o chip de silício básico no qual todos os computadores e a própria nuvem são construídos.

“Esta é realmente uma era dourada de semicondutores”, disse Victor Peng, presidente e executivo-chefe do circuito lógico programável e veterano Xilinx Inc., em um evento recente chamado “O Renascimento do Silício”. Sanjay Mehrotra, presidente e CEO da Micron Technology Inc., acrescentou: “Nunca houve um momento mais emocionante nos últimos 40 anos”.

Mas é muito mais do que o silício. É uma percepção comum que os provedores de infra-estrutura de nuvem têm, de considerar o hardware como uma mercadoria a ser adquirida de maneira barata e interligada em um aglomerado infinitamente escalável para ser gerenciado por software sofisticado. “Os gerentes de TI tratam de infraestrutura como animais de estimação”, brincou Stu Miniman, analista sênior da Wikibon, uma empresa irmã da SiliconANGLE. “Os fornecedores de nuvem tratam isso como gado.”

Mas a nuvem também introduziu alguns problemas espinhosos que não podem ser resolvidos apenas com software. Isso levou os provedores de nuvem a investirem bilhões de dólares em soluções baseadas em hardware para as limitações da infraestrutura remota.

As desvantagens de latência inerentes da nuvem, juntamente com os atrasos envolvidos no envio de grandes volumes de dados para e do armazenamento em nuvem, estão entre os fatores que impulsionam novos investimentos na aceleração de rede baseada em silício. A ascensão da internet das coisas alimentada pela nuvem também está provocando o desenvolvimento de novos tipos de dispositivos de baixa potência.

O mais importante é que o uso crescente de tecnologias de inteligência artificial baseadas em nuvem, como aprendizado de máquina e aprendizado profundo, estão impulsionando investimentos em arquiteturas de hardware que podem fornecer o apetite insaciável dessas aplicações por poder de processamento e memória.

“As coisas que tomamos como garantidas hoje, como PCs de boot instantâneo, smart phones, vídeos de jogos de cair o queixo, bancos de dados na memória e sistemas de armazenamento enormes seriam muito mais limitados ou incrivelmente caros sem avanços em hardware”, disse. Charles King, analista principal da Pund-IT Inc.

“Desde que comecei neste negócio, as pessoas me disseram que o hardware está morto”, disse David Vellante, analista-chefe da Wikibon. “Essa previsão ainda tem que se materializar”.

Em essência, a questão não é sobre o hardware ser ou não importante. Mas onde ele é importante.

 

Migração em Massa de Hardware

O resultado é que as considerações sobre hardware estão se afastando do usuário e indo para a infraestrutura de backend, que hoje é a nuvem. Isso é ótimo para muitos gerentes de TI.

“Nosso plano de cinco anos é colocar quase tudo na nuvem em escala”, disse Doug Saunders, CIO da empresa de descarte de resíduos, coleta e reciclagem Advanced Disposal Services Inc. “Eu não quero estar no ramo de hardware”.

O veterano de TI de 20 anos disse que teve mais do que o necessário para instalar, ajustar e proteger servidores, um processo que pode levar até três meses a partir do pedido inicial. “Você ouve o tempo todo que a TI está lenta”, disse ele. “Uma das razões é o hardware”.

O apelo do gerenciamento definido por software é tão forte que até os fabricantes de hardware local não enfatizam especificações como velocidade de clock, contagem de núcleos de CPU e capacidade de armazenamento em favor da simplicidade e da facilidade de gerenciamento.

A maioria dos clientes se preocupa pouco com o número de cilindros ou com o tamanho do bloco do motor em seus carros e eles querem pensar nos computadores da mesma maneira, disse Lauren Whitehouse, diretora de marketing de grupo definido na Hewlett-Packard Enterprise. “Eles podem não querer mais administrá-lo, mas se importam com os resultados”, disse ela, apontando para o rápido crescimento dos produtos hiperconvergidos e compostos da empresa, que removem grande parte do trabalho de detalhamento da administração de hardware.

É algo inesperado para as organizações de TI, que tradicionalmente empregavam equipes de técnicos para instalar e configurar hardware e administradores para ajustar o desempenho e otimizar a utilização. Hoje, esses trabalhos estão dando lugar a posições centradas em disciplinas como gerenciamento de nível de serviço, contratação e orquestração de nuvem. Espera-se que os gastos globais em TI da empresa com pessoal operacional caiam de US $ 315 bilhões em 2015 para US $ 142 bilhões em 2026, de acordo com a Statista, portal online de estatísticas alemão.

Mesmo na escassa comunidade de usuários de equipamentos de computação de alto desempenho, como laboratórios e instituições acadêmicas, “há um corpo crescente de engenheiros que não confiam em hardware”, disse Bob Sorensen, vice-presidente de pesquisa e tecnologia da Hyperion Research Holdings LLC. “Eles preferem apenas começar a usar um ambiente virtualizado ou com contêineres”.

A conclusão é que racks, energia e acionamento de botões não deveriam ser aquilo com o que os gerentes de TI gastam seu tempo, disse Miniman, da Wikibon. “Deve ser sobre como gerenciar tudo via software.”

 

O Fim da Lei de Moore

Os microprocessadores estão atingindo seu limite. Por mais de 40 anos, os chips baseados na arquitetura X86 praticamente dobraram de desempenho a cada 18 ou 24 meses sob o princípio conhecido como lei de Moore. No entanto, as limitações físicas da miniaturização estão sendo alcançadas, tornando o progresso ainda mais lento e caro.

Em suma, disse Damion Heredia, diretor sênior de gerenciamento de produtos para a infraestrutura de aprendizado de máquina nas operações em nuvem do Google LLC, “a lei de Moore está morta”.

Os microprocessadores de uso geral “foram construídos para executar muitos tipos diferentes de cargas de trabalho”, disse Heredia, mas como o crescimento mudou para cargas de trabalho de computação de finalidade especial, como aprendizado de máquina, “CPUs não foram capazes de fornecer o poder de resolver esses problemas. “

Isso significa que a indústria de computadores deve procurar em outro lugar para encontrar o impulso que gerou seu crescimento por décadas. “O hardware ainda é importante, apenas um tipo diferente de hardware”, disse King.

Testemunhe o crescente mercado de unidades de processamento gráfico, os chips externos que são muito populares em aplicações de software de aprendizado de máquina. As remessas globais de GPU devem crescer a uma taxa anual superior a 30% até 2024, para chegar a US $ 80 bilhões em receita, de acordo com a Global Market Insights Inc.

O estoque da líder de mercado Nvidia Corp. mais do que quadruplicou nos dois anos antes de um colapso no mercado de mineração de criptomoeda arrastar os ganhos em outubro passado. No entanto, a perspectiva de longo prazo é forte.

“Nossa mensagem de primeira linha é que a Lei de Moore terminou em grande parte, de modo que o desempenho de computação atingiu um patamar no nível da CPU”, disse Justin Boitano, diretor sênior de soluções de computação empresarial e periférica da Nvidia.

 

Desenfatizando o microprocessador

A Nvidia e outros fabricantes de GPU estão atendendo à demanda de fabricantes de sistemas e nuvem por novas arquiteturas de hardware que não enfatizam o desempenho do microprocessador em favor dos motores outboard que são adequados às necessidades de processamento paralelo das cargas de trabalho de machine learning. Máquinas construídas para processar cargas de trabalho de aprendizado de máquina distribuem a maior parte do trabalho para GPUs, que processam dados em paralelo e fornecem resultados de volta ao processador central, que nem precisa ser tão rápido.

Essa abordagem está gerando saltos enormes no desempenho para algumas cargas de trabalho. OpenAI LP, a startup de inteligência artificial que na semana passada recebeu um grande investimento de US$ 1 bilhão da Microsoft, estimou no ano passado que a quantidade de computação usada em seus maiores treinamentos de IA cresceu mais de 300.000 vezes entre 2012 e 2018, dobrando para 3.5 ao mês, tempo que excede em muito o ritmo da Lei de Moore.

A ação não está apenas nas GPUs. Computação de conjunto de instruções de baixa potência, microprocessadores Arm que dominam o mercado de telefonia móvel estão encontrando novas utilidades em dispositivos da Internet das Coisas e até mesmo nas instâncias EC2 da Amazon Web Services Inc.

A Intel e outras empresas também estão fazendo grandes apostas na memória persistente, um novo tipo de memória que combina as propriedades de retenção de dados do armazenamento com a velocidade da DRAM. A memória persistente é particularmente útil em cenários de hiperescala e é o tipo de tecnologia que ilustra as mudanças nas prioridades de hardware trazidas pela computação em nuvem. “Esta será uma tecnologia revolucionária”, disse Kit Colbert, diretor de tecnologia da unidade de negócios de plataforma de nuvem da VMware Inc.

O interesse em hardware de rede também está aumentando, à medida que as empresas de nuvem lidam com problemas de latência e de transferência de dados para clientes que estão migrando grandes quantidades de dados para dentro e fora de suas nuvens. “O elemento crítico é mais sobre o movimento de dados do que a capacidade computacional”, disse Sorensen, da Hyperion. “Os processadores que podem lidar com a movimentação de dados ganharão o dia.”

 

O fator da Internet das Coisas

Embora os dias de mexer nos switches DIP e nas unidades de disco de hot-swapping possam estar contados, o envolvimento da organização de TI com o hardware não chega ao fim. A onda de dispositivos IoT está introduzindo milhares de novas plataformas, cada uma com suas próprias considerações subjacentes de hardware.

“Todos os fornecedores de IoT têm suas próprias soluções”, disse Peter Kennedy, diretor de tecnologia da cidade de Cary, na Carolina do Norte. “Quando se trata de hardware, este é um espaço muito fragmentado agora.”

A cidade está transferindo toda a infraestrutura para a nuvem e mudando cerca de 25% das instalações para plataformas hiperconvergentes, mas também instalando parquímetros inteligentes, medidores de água inteligentes, sensores de opióides e até mesmo armadilhas para roedores que enviam um alerta eletrônico quando acionadas.

As limitações de latência e volume de dados impedem que a cidade processe todos esses novos dados na nuvem. Isso significa instalar novos dispositivos de borda como pontos de coleta e filtragem. “Essa é uma classe totalmente diferente de hardware”, disse Kennedy. Eles são dispositivos independentes e o de cada fornecedor é diferente. Os padrões são muito, muito novos ”.

O ponto principal para ele: “O hardware é mais importante do que foi no passado”.

Os conjuntos de habilidades tradicionais de TI, como a administração de sistema, não se prestam necessariamente a essa nova classe de dispositivos, disse Saunders, da Advanced Disposal Services. Sua empresa está atualmente equipando 6.000 caminhões com meia dúzia de câmeras para monitoramento de segurança e conformidade.

“Você precisa de equipes que tenham uma mentalidade de como inovar e gerar novas receitas”, disse ele. “É uma mentalidade diferente do que sentar em uma mesa e monitorar 87 roteadores.” O lado positivo é que as oportunidades de mudar o negócio por meio de dispositivos inteligentes são tão grandes que os jovens profissionais de TI são atraídos para o trabalho.

Os provedores de nuvem estão lidando com o mercado de ponta com serviços e hardware dedicados, incluindo infraestrutura local que imita seus stacks de nuvem, mas com o número de dispositivos que deve crescer dez vezes na próxima década, é seguro apostar que a revolução da IoT continuará deixando o hardware em posição central e à frente.

O resultado: as organizações de TI – até mesmo as pessoas com as chaves de fenda – terão muito hardware para lidar nos próximos anos.

 

Traduzido e adaptado de Silicon Angle. GILLIN, Paul. Disponível em: <https://siliconangle.com/2019/07/28/hardware-still-matters-era-cloud-computing/> Acesso em 28 de jul. de 2019.

 

(Procurando backup em cloud? Clique aqui!)

deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *


           Associado Abrahosting

Contatos

Métodos de pagamento

               Cartões de crédito