As ferramentas generativas de IA estão entre nós, assim como o potencial infinito para seu uso indevido. Elas podem fabricar desinformação durante as eleições. Elas rotineiramente inventam informações tendenciosas e incorretas. Além disso, elas tornam extremamente fácil trapacear nas tarefas de redação na escola, por exemplo.
Conheça 6 artistas que tiveram suas músicas recriadas por IA:
Uma das questões mais conhecidas com grandes modelos de linguagem é a tendência da IA em “alucinar”, o que no caso significa produzir informações incorretas ou prejudiciais. Isso porque os modelos são treinados em uma grande quantidade de dados coletados da internet, que estão atolados em preconceitos e desinformação. Mas Gates acredita que é possível construir ferramentas de IA conscientes dos dados defeituosos com os quais são treinadas e das suposições tendenciosas que fazem.
Leia também:
“Os modelos de IA herdam quaisquer preconceitos inseridos no texto em que são treinados”, escreveu Gates. “Estou otimista de que, com o tempo, os modelos de IA podem ser ensinados a distinguir fato de ficção. Uma abordagem é construir valores humanos e raciocínio de alto nível na IA”, completa.
Gates tem um motivo para falar sobre o ChatGPT: sua empresa, a Microsoft, investiu bilhões de dólares na OpenAI. No final de abril, sua riqueza aumentou em US$ 2 bilhões depois que a conferência de lucros da Microsoft mencionou a IA mais de 50 vezes.
Um exemplo que Gates discutiu em seu blog é como hackers e cibercriminosos estão usando ferramentas generativas de IA para escrever códigos ou criar vozes geradas por essa tecnologia para executar golpes por telefone.
Esse tipo de impacto, por enquanto fora de controle, levou alguns líderes e especialistas em IA, incluindo o cofundador da Apple, Steve Wozniak, o CEO da Tesla, SpaceX e Twitter, Elon Musk, e o cofundador do Center for Human Technology, Tristan Harris, a pedirem em carta aberta, publicada no final de março, um hiato na implantação desses recursos. Gates, no entanto, se opôs à carta e enfatizou que não acha que uma pausa no desenvolvimento dessa tecnologia resolverá quaisquer desafios. “Não devemos tentar impedir temporariamente que as pessoas implementem novos desenvolvimentos em IA, como alguns propuseram”, escreveu.
Em vez disso, Gates disse que essas consequências oferecem mais motivos para continuar desenvolvendo ferramentas avançadas de IA, bem como regulamentações para que governos e corporações possam detectar, restringir e combater o uso indevido usando desses recursos. “Os cibercriminosos não vão parar de criar ferramentas. O esforço para detê-los precisa continuar no mesmo ritmo”, escreveu.
Mas a afirmação de Gates de que as ferramentas de IA podem ser usadas para combater as deficiências de outras ferramentas de IA pode não se sustentar na prática – pelo menos por enquanto. Por exemplo, embora uma variedade de detectores de IA e detectores de deepfake tenham sido lançados, nem todos são capazes de sinalizar corretamente o conteúdo sintético ou manipulado. Alguns retratam incorretamente imagens reais como geradas por IA, de acordo com um relatório do “The New York Times”. Mas a IA generativa, ainda uma tecnologia nascente, precisa ser monitorada e regulamentada por agências governamentais e empresas para controlar seus efeitos não intencionais na sociedade, disse Gates.
“Estamos agora na era da IA. É análogo a tempos incertos antes dos limites de velocidade e dos cintos de segurança”, escreveu Gates.