A Neural Machine Translation (NMT) – ou tradução de máquina neural, em português – é o campo da ciência relacionado ao uso da inteligência artificial para realizar traduções em qualquer idioma. Em 2015, pesquisadores do Montreal Institute of Learning Algorithms desenvolveram novas técnicas de IA que permitiram que as traduções feitas pela máquina, finalmente, funcionassem. Quase da noite para o dia, sistemas como o Google Translate tornaram-se muito melhores.
LEIA MAIS: Escândalo do Facebook destrói confiança nas mídias sociais
Embora esse salto tenha sido significativo, ainda era necessário ter frases em ambos os idiomas – “I like to eat” (inglês) e “me gusta comer” (espanhol), por exemplo. No caso de traduções entre determinados idiomas, como urdu e inglês, sem muitas dessas sentenças pareadas os sistemas de tradução falharam miseravelmente. Desde então, os pesquisadores vêm construindo sistemas que podem ser traduzidos sem emparelhamento de sentenças, ou seja, tradução não-supervisionada de máquina neural (UNMT).
No ano passado, pesquisadores do Facebook, da Universidade de Nova York, da Universidade do País Basco e das Universidades Sorbonne fizeram avanços dramáticos que estão permitindo, de uma vez por todas, que os sistemas façam traduções sem saber que “house” significa “casa” em espanhol.
Apenas alguns dias atrás, o Facebook AI Research (FAIR) publicou um artigo mostrando uma melhora dramática que permitiu traduções de idiomas como o urdu para o inglês. “Para se ter uma ideia do nível de avanço, uma melhoria de um ponto BLEU (uma métrica comum para julgar a precisão da TM) é considerada uma conquista notável neste campo. Nossos métodos mostraram uma melhoria de mais de 10 pontos BLEU.”
A importância deste avanço
A classificação dos dados costuma ser a maior dificuldade nos sistemas de inteligência artificial. Isso significa que teríamos de pagar seres humanos para fazer traduções manuais que podem ser demoradas e caras. Os avanços que este recente documento destaca podem fornecer novas formas de treinar os sistemas sem a necessidade de gerar esses dados. Um exemplo é determinar se há um gato em uma foto sem nenhuma imagem para referência classificada como “gato” ou sistemas de perguntas e respostas em que o software não recebe a resposta correta.
Do ponto de vista das ciências sociais, ele nos permite traduzir documentos escritos em idiomas perdidos ou o desenvolvimento de dispositivos capazes de fazer o trabalho em tempo real de idiomas raros, como suaíli e bielorrusso.
VEJA TAMBÉM: Facebook lança serviço de vídeo fora dos EUA
Poderíamos também imaginar abstrair essa ideia para traduzir entre domínios arbitrários. Por exemplo, “traduzir” a atividade neural no cérebro para vídeos em uma tela.
Como funciona
O sistema do Facebook identifica e combina três componentes principais desenvolvidos em pesquisas anteriores:
1. Codificação byte-pair: Em vez de dar ao sistema palavras inteiras, ele é abastecido com partes das palavras. Por exemplo: a palavra “hello” pode ser imputada como “he” “l” “l” “o”. Isso significa que podemos ter uma tradução para “he” sem que o sistema tenha visto a palavra.
2. Modelo de linguagem: Eles treinam outras redes neurais para aprender a gerar frases que “soam bem”. Isso pode, por exemplo, alterar a frase “como está você?” para “como você está?”.
3. Tradução inversa: Este é um truque no qual outra rede neural aprende a traduzir de trás para frente. Por exemplo: se você quiser traduzir do espanhol para o inglês, o sistema seria ensinado a traduzir do inglês para o espanhol, gerando dados sintéticos e aumentando a quantidade de informação disponível.
O restante da solução combina as técnicas acima por meio de duas abordagens: um sistema baseado em redes neurais e um baseado em frases (PBSMT, da sigla em inglês). Enquanto uma das abordagens melhora a qualidade de tradução, o uso das duas juntas cria novos e impressionantes resultados.