Alguns dias atrás, para minha total surpresa, eu experimentei o meu primeiro, e certamente último, momento Warren Buffett. Esta verdadeira epifania, mais do que inesperada, se deu durante uma mesa redonda (em um evento de varejo) do Fórum E-commerce Brasil, realizado em São Paulo, que focou nos impactos humanos do verdadeiro dilúvio de desinformação e marketing fantasioso promovido pela introdução da chamada inteligência artificial generativa (IAG).
Num certo momento desta conversa, baseado em vários prognósticos recentes, divulgados por analistas de mercado americanos, tanto do setor privado como acadêmico, eu ousei profetizar que a bolha de quase 1 trilhão de dólares da área de IA, formada pelos investimentos descomunais de grandes empresas, bem como um infindável universo de startups, estava prestes a estourar – ou “pop”, como dizem os americanos – arrastando consigo as bolsas de valores por todo o mundo.
Leia também
Difícil dizer quantos presentes na plateia naquela tarde puseram qualquer fé num prognóstico mercadológico feito por alguém totalmente removido do dia a dia do mundo financeiro. Todavia, menos de uma semana depois, alguns dos presentes devem ter se lembrado do vaticínio da pitonisa de ocasião quando, ao acordar, se deram conta que as bolsas ao redor do mundo haviam sofrido perdas significativas estimadas em aproximadamente 6.5 trilhões de dólares, mais que 3 vezes o PIB brasileiro em 2023, em apenas um pregão cabuloso – como um amigo meu gosta de dizer – de segunda-feira. Verdade seja dita que um dos principais componentes de tal queda foi a desaceleração da economia americana.
Todavia, os sinos, alarmes, e sinais de fumaça disparados com as múltiplas predições – inclusive de um economista renomado do MIT – que os investimentos mais que exuberantes em AI generativa podem jamais gerar um retorno financeiro significativo, quer para as empresas quer para o PIB dos países, desempenhou um papel de coadjuvante fundamental no “mini-crash” das bolsas mundiais. Enquanto isso se dava, o verdadeiro Warren Buffett anotava no seu caderninho pessoal de contabilidade, certamente escrito à mão, os mais de 270 bilhões de dólares acumulados com a venda de suas ações bem antes do crash, incluindo boa parte dos seus investimentos na gigantesca Apple, que junto com as outras chamadas 7 maravilhas do mundo “Big Tech” perderam em média 11% dos seus valores de mercado. Entre estas 7, inclui-se a NVIDIA que recentemente havia se transformado na empresa com maior valor de mercado do mundo. Mesmo assim, não escapou da carnificina promovida por investidores com polpas digitais trêmulas de ansiedade.
Mas todo este verdadeiro churrasco de ações de empresas de IA pode ser apenas o primeiro salvo de um braseiro ainda muito maior e devastador. Sem que muitos notassem, alguns dias antes do crash das bolsas – precisamente no dia 24/07/2024 – um grupo de matemáticos ingleses e canadenses (Shumailov et. al., 2024) publicou um artigo na prestigiosa revista Nature que, na minha humilde opinião, pode vir a se tornar um clássico na literatura de IA. Não pelas razões que os seus adeptos desejariam.
Neste estudo, os autores demonstram que a medida que textos produzidos por modelos conhecidos como LLM (do inglês Large Language Models), que são a base de aplicativos como Chat-GPT-3 e Chat-GPT, passarem a dominar o conteúdo disponível na internet e, inadvertidamente, começarem a ser usados para o treinamento de novas gerações de LLMs, estes últimos modelos tenderiam a sofrer o que os autores chamaram de “colapso”. Este colapso foi definido como “um processo degenerativo que afeta gerações de modelos generativo que ocorre quando os dados que eles produziram, numa geração anterior, passam a fazer parte ou “poluir” o grupo de dados de treinamento usados para que uma nova geração de modelos possa aprender”.
Como resultado desta “poluição recursiva”, os novos modelos passariam a se distanciar cada vez mais dos dados que representam textos verdadeiros produzidos por interações humanas reais. Desta forma, estas futuras gerações de modelos gradualmente perderiam a sua capacidade preditiva e se transformariam em ferramentas inúteis. Mais do que isso, no limite, tal colapso elevaria dramaticamente o valor dos dados – textos, imagens, vídeos – derivados de interações humanas genuínas, levando, consequentemente, à uma explosão no custo para se obter as gigantescas coleções de dados (na ordem de muitos milhões de eventos) necessárias para treinar futuros LLMs.
Não é preciso ter um doutorado em estatística para reconhecer a tremenda sinuca de bico que este artigo criou para todos os envolvidos com o desenvolvimento de aplicações de AI generativa baseadas em LLMs. Trocando em miúdos, o que este estudo revelou é que quanto maior o monopólio atingido por estes modelos – a real intenção desta e qualquer outra industria – , maior a chance deles “colapsarem” num futuro próximo! Pior ainda, este estudo escancarou o verdadeiro tamanho do risco que investidores em todo mundo vão enfrentar ao continuar a torrar seu dinheiro cegamente em mais uma das falácias de uma área que proporcionou tantas outras bolhas na sua já longa história – quase 70 anos – de promessas inexequíveis e revoluções jamais realizadas. Culminando com a mais recente delas, a qual eu usualmente me refiro como construir um futuro sem futuro para a humanidade.
Leia também
Surpreso? Eu me explico. Caso aplicações de IA generativa, que usam como matéria prima enormes repositórios de dados obtidos no passado – nem sempre com consentimento dos seus geradores, nós os consumidores, diga-se de passagem – para treinar seus LLMs, se tornem difundidas por todas as atividades humanas, no limite, toda humanidade seria condenada a viver num futuro onde nada literalmente novo é criado; porque tudo seria derivado apenas da massagem algorítmica em larga escala de algum domínio do conhecimento humano produzido no passado.
Tudo isso sem nenhuma transparência de como o resultado foi obtido, uma vez que o processo central por detrás destas aplicações, batizado com o grandioso nome de “deep learning”, é totalmente imune a qualquer escrutínio ou auditoria que permita revelar como os seus resultados mirabolantes – quase mágicos para alguns adeptos mais fanáticos – foram gerados. Assim, se um LLM for treinado com todos os textos que Machado de Assis escreveu na sua vida, este modelo só será capaz de produzir textos que se assemelham aquilo que o autor de Memórias Póstumas de Brás Cubas produziu mais de um século atrás. Deste angu de dados, porém, jamais sairia um novo Gabriel Garcia Marquez ou Shakespeare. Da mesma forma, um sistema treinado com todas as sinfonias de Mozart jamais seria capaz de produzir uma nova canção dos Beatles, ou qualquer outro tipo de movimento musical inovador.
Por não ser nem inteligente – apenas os organismos o são – nem artificial – milhões de seres humanos precisam labutar as escondidas para que ela funcione – a tal IA, cantada em verso em prosa como a mais sofisticada das tecnologias de processamento de dados a emergir durante toda a Era Digital, seria totalmente incapaz de imitar ou replicar a épica e extraordinária façanha de quase 110 bilhões de seres humanos que, ao longo dos últimos 300 mil, anos construíram um futuro verdadeiramente original e criativo. Basicamente, seria o fim desta esplendorosa corrida de revezamento em que homens e mulheres de uma dada geração, individual e coletivamente, graças as suas habilidades cognitivas, construíram pelas próprias mãos, algo que nenhuma máquina digital ou algoritmo será capaz de parir: um futuro genuinamente tão imprevisível, quanto inovador.
Em outras palavras, um futuro onde ainda haverá esperança de se criar um mundo melhor! Se Warren Buffet me permitir mais um momento usando os seus sapatos, é neste futuro que eu colocaria todas as minhas fichas.
Escolhas do editor
Miguel Nicolelis é professor emérito da Duke University, fundador Instituto Nicolelis de Estudos Avançados do Cérebro.
Os artigos assinados são de responsabilidade exclusiva dos autores e não refletem, necessariamente, a opinião da Forbes Brasil e de seus editores.