Amazon passa a usar chip próprio em assistentes de voz

REUTERS/Steve Marcus
REUTERS/Steve Marcus

Dispositivo da Amazon Dot: chips de design próprio para acelerar e baratear o processo

A Amazon disse hoje (12) que mudou parte do processamento feito em sua assistente de voz Alexa para chips de design próprio, com objetivo de tornar o processo mais rápido e barato, enquanto se afasta dos chips da Nvidia.

Quando usuários de dispositivos como o Echo, da Amazon, fazem uma pergunta ao assistente, a consulta é enviada a um dos datacenters da Amazon para várias etapas de processamento. Quando os computadores da Amazon emitem uma resposta, ela sai em formato de texto que deve ser traduzido em fala pelo assistente.

Siga todas as novidades da Forbes Insider no Telegram

A Amazon antes fazia esse processo usando chips da Nvidia, mas agora a maior parte do processamento acontecerá usando seu próprio chip Inferentia. Anunciado pela primeira vez em 2018, o chip da Amazon é projetado de forma personalizada para acelerar grandes volumes de tarefas de aprendizado de máquina, como tradução de texto para fala ou reconhecimento de imagens.

A empresa disse que a mudança para o chip Inferentia melhorou a latência de alguns processos da Alexa em até 25%, a um custo 30% menor.

A Amazon também disse que o Rekognition, seu serviço de reconhecimento facial baseado em nuvem, começou a usar os chips, mas não informou quais já havia usado antes ou quanto do processamento já mudou para seus próprios chips. (Com Redação)

Siga FORBES Brasil nas redes sociais:

Facebook
Twitter
Instagram
YouTube
LinkedIn

Siga Forbes Money no Telegram e tenha acesso a notícias do mercado financeiro em primeira mão

Baixe o app da Forbes Brasil na Play Store e na App Store.

Tenha também a Forbes no Google Notícias.

Copyright Forbes Brasil. Todos os direitos reservados. É proibida a reprodução, total ou parcial, do conteúdo desta página em qualquer meio de comunicação, impresso ou digital, sem prévia autorização, por escrito, da Forbes Brasil ([email protected]).