Edit Content

Menu

shutterstock_196477304_wk1003mike-2

HPE cria computador para a era do big data

HPE cria computador para a era do big data

Protótipo do programa de pesquisa The Machine promete alto desempenho no processamento centrado na memória

Compartilhar:

Share on facebook
Share on twitter
Share on linkedin
Share on email
Share on whatsapp

A Hewlett Packard Enterprise acaba de lançar um super computador de memória única criado para atender a era do big data. A máquina é um protótipo do programa de pesquisa e desenvonvimento The Machine, que tem como objetivo criar um novo paradigma chamado de computação centrada na memória.

 

O objetivo principal da HPE com a computação centrada em memória é resolver as limitações que as arquiteturas computacionais hoje possuem e que inibem grandes inovações nas soluções de problemas para a humanidade. “Os segredos para o próximo grande avanço científico, a inovação que vai reformular a indústria ou a tecnologia que mudará nossas vidas estão escondidos bem à vista, atrás das montanhas de dados que criamos todos os dias. Para cumprir essa promessa, não podemos contar com as tecnologias do passado, precisamos de um computador criado para a era do Big Data”, pontua Meg Whitman, CEO da Hewlett Packard Enterprise.

 

De acordo com Alexandre José, arquiteto de Enterprise para América Latina da Hewlett Packard Enterprise e evangelista do The Machine, na arquitetura criada pela empresa, os dados não se movimentam, ou seja, eles ficam sempre armazenados em uma memória não volátil que pode estar armazenada em vários dispositivos geograficamente dispersos e os SOC (System on the Chip) são conectados a esse barramento de memória, podendo executar várias atividades ao mesmo tempo.

 

“Como a memória é o centro de todo o processamento, sem movimentação do dado e suportando muitos SOC, a eficiência cresce exponencialmente”, pontua o executivo. Outro aspecto é que esta arquitetura criada pela HPE não tem limite de tamanho de memória, possibilitando criar uma entidade de processamento de dados muito maior que qualquer outra entidade computacional existente nos tempos no século XXI.

 

No protótipo criado pela HPE, se comprovou o funcionamento da arquitetura de computação centrada em memória com 160 TERA BYTES, maior que qualquer outra arquitetura criada até hoje. “O computador consegue processar simultaneamente 40 mil filmes em alta resolução (assumindo 4GB de tamanho cada) e poder identificar em tempo real o rosto de um ator em qualquer quadro do filme. Um outro exemplo seria o processamento simultâneo do estado de saúde de todos os mais de 7 bilhões de habitantes da Terra, com o propósito de localizar epidemias e predições médicas em segundos para a população mundial”, explica José.

 

Aplicações

 

A computação centrada em memória, continua ele, vai permitir que organizações executem o impossível, tal como capturar uma imagem de alguém procurado internacionalmente em qualquer aeroporto do mundo e comparar com um banco de dados online em segundos, permitindo que o indivíduo seja preso ainda antes do embarque no avião. Outra aplicação é a correlação de dados meteorológicos com os dados produzidos pelos aviões, permitindo uma redução de custos por meio de uma análise preditiva em segundos, contra uma análise hoje que demora dias sob a mesma base de dados.

 

“Em um futuro próximo, as possibilidades desse novo conceito serão aplicadas para o processamento de um volume de dados não imaginados hoje em dia, que ajudarão a humanidade a evitar tragédias, criar mecanismos de segurança eficientes contra crimes cibernéticos, acelerar o mapeamento do DNA humano, encontrar curas para doenças, entre outras aplicações”, acrescenta.

 

A computação centrada em memória é uma plataforma de hardware, 100% física. Ela muda complemente o funcionamento das arquiteturas tradicionais de computadores e sua capacidade teórica calculada pelos engenheiros HPE estima chegar a 4.096 yottabytes. “Apenas para comparação, esta capacidade é 1000 vezes maior que todo (100%) universo digital existente no planeta atualmente”, diz.

 

O projeto conta com alguns parceiros estratégicos, como a Cavium Inc, que é um dos fabricantes de semicondutores e desenvolveu SoC especializados para a arquitetura. Ainda no projeto estão fabricantes de memórias, componentes de gestão de fótons, entre outros. Contudo, o projeto é 100% da HPE e é liderado pelos pesquisadores da HPE Labs.

 

Disponibilidade

 

As tecnologias desenvolvidas no programa The Machine serão incorporadas aos produtos da HPE. A aceleração dessa incorporação se dará em função da resposta do mercado e também das novas aplicações preparadas para usar essa nova arquitetura. Para acelerar esta adoção, a HPE lidera hoje um consórcio de múltiplos fabricantes chamado GEN Z (http://genzconsortium.org/), no qual parte das inovações da computação centrada em memória estão sendo discutidas nesse fórum da indústria.

 

O executivo acredita que a computação centrada em memória afetará todos os mercados, porém em tempos de adoção diferentes. Os grandes manipuladores de informação certamente serão os primeiros a serem afetados, tais como bancos, bolsa de valores, pesquisas médicas, indústria aeroespacial. As previsões apontam que os dispositivos de IoT serão também grandes gerados de informações, que deverão ser processadas em tempo real, logo a aplicação da computação centrada em memória também resolverá esses problemas.

 

“Um exemplo que pode ser usado é do agronegócio, no qual a correlação das condições climáticas, o controle localizado de pragas por identificação biométrica, análise do solo e também a cotação das commodities podem ser processados e dar condições ao gestor de tomar decisões rápidas sobre o negócio, aumentando a produtividade e rendimento da produção de alimentos”, completa.

 

Conteúdos Relacionados