Uma família de Portland, no Estado norte-americano do Oregon, descobriu o que acontece quando a popular assistente de voz da Amazon.com está perdida nas traduções.
VEJA TAMBÉM: Ativistas criticam reconhecimento facial da Amazon
A Amazon descreveu ontem (24) uma “improvável série de eventos” que fizeram a assistente, Alexa, enviar gravações de áudio da família para seus contatos de forma aleatória. O episódio revelou como a Alexa pode interpretar mal as conversas como um pedido de acionamento e um comando.
Um veículo local de imprensa, o “KIRO 7”, reportou que uma mulher com dispositivos da Amazon em sua casa recebeu uma chamada, há duas semanas, de um funcionário de seu marido dizendo que a Alexa tinha gravado uma conversa de sua família sobre pisos de madeira e enviado a ele.
“Eu me senti invadida”, disse a mulher, identificada apenas como Danielle, segundo a reportagem. “Uma total invasão de privacidade. Imediatamente eu decidi nunca mais ligar esse dispositivo de novo porque não posso confiar nele.”
Alexa, que vem com caixas de som Echo e outros aparelhos, começa a gravar depois de ouvir seu nome ou outra “palavra de ativação” selecionada pelos usuários. Isso significa que uma expressão parecida com Alexa, mesmo de um comercial de TV, pode ativar o dispositivo. Foi isso que aconteceu no incidente, segundo a Amazon.
“Uma conversa foi ouvida como um pedido de ‘enviar a mensagem'”, disse a empresa em um comunicado. “Naquele ponto, Alexa perguntou em voz alta ‘para quem?’ e a conversa de fundo foi interpretada como um nome na lista de contatos do cliente.”
E AINDA: Amazon lança casas-modelo para testar Alexa
A Amazon acrescentou que a empresa está “avaliando as opções para tornar esse caso ainda menos provável” e garantiu aos consumidores que a segurança da Alexa é crucial para a Amazon, que tem ambições de que o dispositivo seja onipresente – seja controlando as luzes para os clientes ou fazendo pedidos junto à maior varejista online no mundo.
Pesquisadores da universidades de Berkeley e Georgetown descobriram, em um estudo de 2016, que sons ininteligíveis para humanos podem disparar assistentes de voz em geral, o que levantou preocupações sobre o uso para ataques. A Amazon não respondeu imediatamente aos pedidos de entrevista, mas havia dito, anteriormente, ao “The New York Times” que tomou medidas para manter seus dispositivos seguros.