A Nvidia domina o mercado de chips para treinar computadores a pensar como seres humanos, mas enfrenta um concorrente ferrenho em um importante caminho de expansão no mercado de chips de inteligência artificial: a Intel.
LEIA MAIS: Inteligência Artificial será usada em tratamento para o câncer
Os chips da Nvidia dominam o mercado de treinamento de inteligência artificial, onde enormes quantidades de dados ajudam algoritmos a “aprenderem” uma tarefa, como reconhecimento de voz. Mas uma das maiores áreas de crescimento será a entrega de computadores que podem executar as tarefas “aprendidas”. A Intel domina o mercado de centrais de processamento de dados onde tais tarefas provavelmente serão executadas.
“Nos próximos 18 a 24 meses, é muito difícil vislumbrar qualquer um que possa desafiar a Nvidia em treinamento”, disse Jon Bathgate, analista da Janus Henderson Investors.
Mas os processadores da Intel já são usados amplamente para pegar um algoritmo de inteligência artificial treinado e colocá-lo em uso, por exemplo, varrendo o áudio de entrada e traduzindo-o em solicitações baseadas em texto, o que é chamado de “inferência”.
Os chips da Intel funcionam bem nesta área, especialmente quando são acompanhados por grandes quantidades de memória, disse Bruno Fernandez-Ruiz, vice-presidente de Tecnologia da Nexar, uma startup israelense que usa câmeras de smartphones para tentar prevenir colisões de automóveis.
VEJA TAMBÉM: Por que a Apple perdeu o trem da inteligência artificial, apesar da Siri
Este mercado pode ser maior que o de treinamento, disse Abhinav Davuluri, um analista da Morningstar, que vê o mercado de inferência valendo US$ 11,8 bilhões até 2021, ante US$ 8,2 bilhões da área de treinamento. A Intel estima que o atual mercado para chips de inteligência artificial é de cerca de US$ 2,5 bilhões, dividido em partes iguais entre inferência e treinamento.
A Nvidia, que divulgou ontem (16) alta de 89% no lucro trimestral, não deu estimativas específicas para o mercado de chips de inferência, mas o presidente-executivo, Jensen Huang, afirmou a analistas que acredita que “será um mercado muito grande para nós”.
As vendas de chips Nvidia para inferência estão subindo. Em maio, a companhia informou que tinha dobrado as vendas do produto na comparação anual para grandes centrais de processamento de dados, mas não deu detalhes. No início deste mês, a empresa de computação em nuvem do Google afirmou que adotou os chips da Nvidia para tarefas de inferência e que vai alugar os equipamentos para clientes.
Mas a Nvidia enfrenta obstáculos para seus produtos de inferência porque o mercado de processamento de dados está coberto de chips da Intel vendidos nos últimos 20 anos.
A Take Taboola, uma companhia baseada em Nova York que ajuda editoras a recomendarem conteúdo relacionado a leitores, é um exemplo sobre como os chips da Intel se mantêm competitivos.
A empresa de Nova York usa chips de treinamento da Nvidia para ajudar seu algoritmo a aprender o que recomendar e considerou os processadores de inferência da Nvidia para a tarefa. Mas a Taboola acabou optando em continuar com os chips da Intel por questões de velocidade de resposta e custo, disse Ariel Pisetzky, vice-presidente de tecnologia da informação da empresa.
Os chips da Nvidia foram muito mais rápidos, mas o tempo necessário para trabalhar os dados acabou minimizando os possíveis ganhos, disse Pisetzky. A Intel despachou engenheiros para ajudar a Taboola a ajustar seu código de programação para que os mesmos servidores já usados pela empresa pudessem trabalhar com duas vezes mais solicitações. “Trabalhando com a Intel, eu posso reduzir minhas compras de novos servidores em um fator de dois porque eu posso usar meus atuais servidores duas vezes melhor.”
A Nvidia tem trabalhado para resolver tais desafios. A companhia lançou software este ano para tornar seus chips de inferência mais rápidos na entrega dos dados. A empresa também anunciou nesta semana uma nova família de processadores baseados em uma tecnologia chamada Turing, que afirma ser 10 vezes mais rápida. “Estamos ativamente trabalhando com praticamente todos provedores de internet do mundo para incorporarem aceleração de inferência em seus equipamentos”, disse Huang. Ele deu como exemplo o reconhecimento de voz, que somente é útil se responder em um período de tempo relativamente curto. “E nossa plataforma é realmente excelente para isso.”