Um advogado que representa um homem em um processo de danos pessoais em Manhattan se colocou à mercê do tribunal. O que ele fez de errado? Apresentou um processo judicial federal que citava pelo menos seis casos que não existiam. Infelizmente, o advogado usou o ChatGPT, que inventou tudo.
Steven A. Schwartz representa um cliente que está processando a Avianca Airlines depois que um carrinho de serviço supostamente atingiu seu joelho em 2019. Schwartz disse que nunca havia usado o ChatGPT antes e não tinha ideia de que a ferramenta apenas inventaria casos.
Na verdade, o advogado disse que até perguntou ao ChatGPT se os casos eram reais. O chatbot insistiu que sim. Mas foi somente depois que os advogados da companhia aérea apontaram em um novo processo que eles não existiam que Schwartz descobriu seu erro. (Ou, o erro da IA)
O juiz do caso, P. Kevin Castel, está realizando uma audiência em 8 de junho sobre o que fazer nessa confusão, de acordo com o New York Times. Mas, desnecessário dizer que o juiz não está feliz.
O ChatGPT foi lançado no final de 2022 e instantaneamente se tornou um sucesso. O chatbot faz parte de uma família de novas tecnologias baseadas em IA generativa que pode manter conversas com usuários por horas a fio. As conversas parecem tão orgânicas e normais que às vezes o ChatGPT parece ter vontade própria. Mas a tecnologia é notoriamente imprecisa e muitas vezes apenas inventa fatos e fontes. O Bard, produto concorrente do Google, tem problemas semelhantes.
Leia também:
- Brasil já é o 5º país que mais usa ChatGPT; homens representam 89% de acessos
- 8 usos possíveis e práticos do ChatGPT nos estudos
- Conheça os 29 cursos e recursos gratuitos de ChatGPT e IA Generativa
Mas nenhum desses problemas impediu as pessoas de usar a tecnologia experimental como se fosse uma fonte confiável de informação. Existem inúmeros relatos de crianças fazendo com que o ChatGPT escreva redações e também muitos relatos de professores pensando que podem simplesmente perguntar ao ChatGPT se um artigo foi feito por ele. A OpenAI, a empresa por trás do ChatGPT, oferece um serviço que tenta detectar quando o chatbot foi usado, mas esse detector tem apenas uma taxa de precisão de 20%. E se você apenas alimentar parágrafos aleatórios do ChatGPT, a IA não poderá dizer se os escreveu.
Chatbots como o ChatGPT são controversos por vários motivos, incluindo o fato de alguns especialistas em tecnologia temerem que a IA possa sair do controle. Algumas pessoas até acreditam que a IA pode começar a ter vontade própria, desencadeando uma espécie de cenário semelhante ao Exterminador do Futuro , em que a humanidade é completamente destruída . O bilionário Elon Musk sugeriu essa possibilidade quando recentemente pediu uma pausa de seis meses no desenvolvimento da IA – que provavelmente tinha mais a ver com o fato de que ele estava correndo para construir seu próprio concorrente do ChatGPT . Afinal, Musk foi um dos cofundadores originais da OpenAI em 2015, antes de ser expulso depois de tentar assumir o controle da empresa em 2018.
No entanto, ainda não estamos perto de as máquinas organizarem uma revolta contra toda a vida orgânica. Chatbots como o ChatGPT são essencialmente apenas formas mais avançadas de texto preditivo. Eles trabalham tentando adivinhar com incrível velocidade o que ele deve dizer, e essa velocidade geralmente faz com que ele seja impreciso.
O perigo da IA pode não estar em uma tecnologia que desenvolve vontade própria. O perigo real, ao que parece, é que os humanos simplesmente acreditarão em qualquer coisa que as máquinas digam, não importa o quão errado seja. O ChatGPT não sabe que está fornecendo informações imprecisas. Portanto, cabe a nós verificar os fatos e nos preocupar em acertar as coisas.