Quando o empreendedor israelense Avigdor Willenz investiu US$ 20 milhões em uma startup fundada por dois ex-colegas — Bilik (Billy) Hrvoye e Nafea Bshara –, a Annapurna Labs, mal sabia que a revenderia por US$ 350 milhões à Amazon. Em apenas em três anos, a aquisição feita em 2016 transformou a Amazon Web Services (AWS) em um player poderoso no mercado de hardware e chips. Um player capaz de ameaçar a Intel e a AMD. Batizada em homenagem a um dos picos mais altos do Himalaia, um lugar que Billy e Nafea queriam conhecer, a Annapurna Labs foi criada no momento certo. A Amazon estudava criar chips personalizados para seus serviços de infraestrutura em nuvem — sua equipe de engenharia estava cada vez mais descontente com o desempenho da AMD, adotada como alternativa à Intel — e considerou a empresa um ativo perfeito para aquisição.
LEIA MAIS: Jeff Bezos: a pessoa mais rica do mundo
A Amazon e a Annapurna Labs têm muito em comum. Ambas as empresas trabalham de forma discreta, mantendo sigilo sobre suas pesquisas e criação de produtos. Ambas são obcecadas com o cliente. Como a maioria das equipes da Amazon, a Annapurna Labs era uma empresa enxuta, focada na construção de uma tecnologia de nicho e mudança de mundo que desafiaria as líderes do segmento — Intel e AMD. Deu match. O investimento na Annapurna Labs se revelou um dos negócios mais bem-sucedidas e estratégicos para a Amazon, que deu à AWS uma vantagem sobre as rivais Microsoft e Google.
Para entender o valor que a Annapurna Labs trouxe para a AWS, precisamos entender a evolução da infraestrutura como serviço (IaaS). O avatar original da infraestrutura em nuvem lançava e acessava máquinas virtuais em um modelo de precificação de pagamento conforme o uso. Girar máquinas virtuais sob demanda e desligá-las quando o trabalho era feito não era nada menos do que mágico. O Amazon EC2 foi pioneiro no mercado de IaaS. Foi um marco que revolucionou a forma como a infraestrutura foi provisionada e consumida ao capacitar várias startups para serem ativadas e escalar seus negócios com quase nenhum gasto de capital (CAPEX) em infraestrutura.
A tecnologia IaaS original na AWS executava uma versão altamente personalizada do Xen, um hipervisor de software livre que permite que várias máquinas virtuais sejam executadas em uma única máquina física. A AWS acabou por descobrir que o Xen tem muitas limitações que poderiam retardar o rápido potencial de crescimento do Amazon EC2. Os engenheiros perceberam também que havia uma oportunidade de otimizar o desempenho e o custo da infraestrutura, transferindo o software para um componente de hardware específico. Descarregando o hipervisor e a pilha de rede para um acelerador de hardware especializado chamado ASIC (Application Specific Integrated Circuit), o Amazon EC2 funcionaria com maior velocidade e menor custo. Como essas alterações são feitas no nível mais baixo da pilha de tecnologia, elas seriam transparentes para os clientes, que se beneficiariam do desempenho aprimorado.
A linha C3 anunciou em 2013 a estreia de chips personalizados no Amazon EC2. Eles foram apoiados por uma interface de rede personalizada que forneceu largura de banda e taxa de transferência mais rápidas. Foi a decisão de construir um hardware personalizado para o EC2 que levou à parceria com a AMD. Mas James Hamilton, o homem por trás da massiva distribuição de data centers na AWS, se decepcionou com o desempenho da AMD.
Anos depois, em 2015, a oportunidade de parceria com a Annapurna Labs resultou no lançamento da família de instâncias do Amazon EC2 C4. Além de descarregar a virtualização de rede para o hardware personalizado, essas instâncias contavam com um ASIC otimizado para serviços de armazenamento. Mas tanto o C3 quanto o C4 ainda executavam o hipervisor tradicional em cima de um processador Intel Xeon.
O que começou como aliança com a Annapurna Labs rapidamente se transformou em uma aquisição. Em 2016, a Amazon anunciou a compra da startup israelense por uma quantia não revelada. Em 2017, após dois anos da intensa colaboração entre os engenheiros da Amazon EC2 e da Annapurna Labs, a AWS anunciou a família C5 de instâncias do EC2. Essas novas instâncias ofereceram uma melhoria de preço / desempenho de 25% em relação às instâncias do C4, com mais de 50% para algumas cargas de trabalho. Este lançamento marcou um marco na história do Amazon EC2. Ele substituiu o Xen por um hypervisor KVM altamente otimizado, fortemente acoplado a um ASIC que fazia o trabalho pesado da virtualização. Essa combinação forneceu máquinas virtuais extremamente velozes que quase igualaram o desempenho de um servidor bare-metal. A Amazon continuou a suportar e aprimorar outros tipos de instância que ainda são executados no Xen.
A poderosa combinação de software KVM wafer-thin, fortemente acoplada a um ASIC, é apelidada de Project Nitro. O objetivo número um da equipe de engenharia do Projeto Nitro era fornecer um desempenho que fosse indistinguível do bare metal, e eles conseguiram alcançá-lo. No re: Invent 2017, evento em torno de tendências do setor, a AWS anunciou o recurso mais esperado do Amazon EC2 – instâncias de bare metal. O molho secreto por trás das instâncias de metal é o Projeto Nitro. Ele também permitiu que a Amazon suportasse uma variedade de hipervisores, incluindo Xen, KVM e até mesmo o vSphere.
O Project Nitro se tornou o principal bloco de construção de tecnologia para executar o VMware na AWS. Isso abriu o caminho para a parceria histórica entre a VMware e a AWS, que eram concorrentes ferrenhos no mercado de nuvem. O próximo passo lógico para a Annapurna Labs foi lançar uma CPU personalizada que eles fizeram no re: Invent 2018. Os processadores AWS Graviton, construídos em torno de núcleos de braço a partir de silício customizado, são projetados desde o início para cargas de trabalho escaláveis. As instâncias do Amazon EC2 A1 são fornecidas pelo AWS Graviton, que é executado em uma pilha de tecnologia sem dependência da arquitetura Intel x86. Isso marcou a entrada oficial da Amazon na indústria de silício, desafiando o domínio da Intel e da AMD.
As inovações da Annapurna Labs não param nos aceleradores de rede, armazenamento e virtualização. Eles agora estão permitindo que a AWS assuma a liderança no treinamento e na execução de modelos de aprendizado de máquina e inteligência artificial na nuvem.
Andy Jassy, CEO da AWS, anunciou a AWS Inferentia no re: Invent 2018. Este serviço é alimentado por chips Annapurna ASIC que aceleram a inferência de modelos de aprendizado de máquina treinados usando o TensorFlow, Caffe2 e ONNX. O chip deverá estar disponível ainda este ano.
O AWS Inferentia torna a nuvem da Amazon a mais barata para executar inferências de aprendizado de máquina. Concorre com o acelerador de AI do Google, chamado TPU, e o FPGA do Microsoft Azure. Com os provedores de nuvem prontos para construir silício personalizado, a Annapurna Labs está se transformando na arma secreta da Amazon. Isso ajudará a AWS a fornecer serviços inovadores que oferecem a melhor infraestrutura de classe para executar cargas de trabalho modernas.
Forbes no Facebook: http://fb.com/forbesbrasil
Forbes no Twitter: http://twitter.com/forbesbr
Forbes no Instagram: http://instagram.com/forbesbr