A Amazon disse hoje (12) que mudou parte do processamento feito em sua assistente de voz Alexa para chips de design próprio, com objetivo de tornar o processo mais rápido e barato, enquanto se afasta dos chips da Nvidia.
Quando usuários de dispositivos como o Echo, da Amazon, fazem uma pergunta ao assistente, a consulta é enviada a um dos datacenters da Amazon para várias etapas de processamento. Quando os computadores da Amazon emitem uma resposta, ela sai em formato de texto que deve ser traduzido em fala pelo assistente.
Siga todas as novidades da Forbes Insider no Telegram
A Amazon antes fazia esse processo usando chips da Nvidia, mas agora a maior parte do processamento acontecerá usando seu próprio chip Inferentia. Anunciado pela primeira vez em 2018, o chip da Amazon é projetado de forma personalizada para acelerar grandes volumes de tarefas de aprendizado de máquina, como tradução de texto para fala ou reconhecimento de imagens.
A empresa disse que a mudança para o chip Inferentia melhorou a latência de alguns processos da Alexa em até 25%, a um custo 30% menor.
A Amazon também disse que o Rekognition, seu serviço de reconhecimento facial baseado em nuvem, começou a usar os chips, mas não informou quais já havia usado antes ou quanto do processamento já mudou para seus próprios chips. (Com Redação)
Facebook
Twitter
Instagram
YouTube
LinkedIn
Siga Forbes Money no Telegram e tenha acesso a notícias do mercado financeiro em primeira mão
Baixe o app da Forbes Brasil na Play Store e na App Store.
Tenha também a Forbes no Google Notícias.