Gary Marcus, especialista em inteligência artificial, escreveu em seu novo livro sobre os maiores perigos da IA. “A longo prazo, não sabemos como criar uma IA segura e confiável, e isso não pode ser bom”, pontua. “Como, em algum momento, a IA substituirá a maioria dos empregos, e um pequeno grupo de oligarcas concentrará grande parte do dinheiro, talvez precisemos de uma renda básica universal”, acrescenta.
Além das afirmações acima, ele defende a criação de uma agência reguladora para a IA: “Gostando ou não, a IA está transformando tudo, e precisamos de uma agência que atue de forma dinâmica para aproveitar oportunidades e mitigar riscos. Uma função seria a pré-avaliação de novas tecnologias.”
Leia também
Marcus também alerta: “Precisamos nos manifestar e insistir que descartaremos líderes que entreguem o controle às grandes empresas de tecnologia. O momento para boicotar a IA generativa pode estar próximo.”
Confira os 12 Perigos Imediatos da IA:
1. Desinformação política em massa e automatizada
“Sistemas de IA generativa são as metralhadoras (ou bombas nucleares) da desinformação, tornando-a mais rápida, barata e eficiente”, escreve Marcus. “Durante as eleições de 2016, a Rússia gastou US$ 1,25 milhão por mês em fazendas de trolls humanos, criando conteúdo falso para gerar discórdia nos EUA.”
2. Manipulação de mercado
“Além de eleições, agentes mal-intencionados também tentarão influenciar mercados. Alertei o Congresso sobre essa possibilidade em 18 de maio de 2023; quatro dias depois, isso se tornou realidade: uma imagem falsa do Pentágono em chamas se espalhou pela internet e fez a bolsa cair brevemente.”
3. Desinformação acidental
“Mesmo sem intenção de enganar, os modelos de linguagem podem gerar desinformação por acidente. Um estudo do Instituto de IA Centrada no Humano, da Universidade de Stanford, mostrou que as respostas desses sistemas a perguntas médicas são inconsistentes e, muitas vezes, imprecisas.”
4. Difamação
“Um caso específico de desinformação é o dano à reputação de indivíduos. Em um incidente grave, o ChatGPT alegou que um professor de direito esteve envolvido em um caso de assédio sexual durante uma viagem ao Alasca, com base em um artigo inexistente do The Washington Post.”
5. Deepfakes não consensuais
“Deepfakes estão cada vez mais realistas. Em outubro de 2023, alguns estudantes começaram a usar IA para criar imagens de teor sexual falsas e não autorizadas de colegas.”
6. Facilitação de crimes
“A IA já está sendo usada em golpes de clonagem de voz e phishing. Em um golpe conhecido, criminosos clonaram a voz de uma criança, ligaram para os pais simulando um sequestro e exigiram resgate em bitcoin.”
7. Cibersegurança
“Ao escanear milhões de linhas de código automaticamente, a IA pode descobrir rapidamente falhas de segurança em softwares e celulares, uma tarefa que antes só podia ser feita por especialistas.”
8. Discriminação e preconceito
“O viés em sistemas de IA é um problema antigo. Em 2013, a pesquisadora Latanya Sweeney mostrou que nomes afro-americanos geravam resultados de anúncios diferentes no Google, incluindo propagandas de checagem de antecedentes criminais.”
9. Privacidade e vazamento de dados
Marcus cita o livro The Age of Surveillance Capitalism, de Shoshana Zuboff, que debate a espionagem feita por empresas. “A experiência humana é tratada como matéria-prima para gerar dados comportamentais, que são vendidos para quem quiser”, acrescenta.
10. Uso não autorizado de propriedade intelectual
“Grande parte do conteúdo que a IA reproduz é protegido por direitos autorais e utilizado sem o consentimento dos criadores”, diz Marcus. “Esse fenômeno é chamado de Grande Roubo de Dados, um movimento que transfere a riqueza de muitos para poucas empresas, a menos que haja intervenção governamental.”
11. Dependência excessiva de sistemas pouco confiáveis
“Usar IA em aplicações críticas à segurança é um erro que pode acontecer. Imagine um carro autônomo usando IA para buscar a localização de outro veículo, ou uma arma automatizada que cria inimigos fictícios. E pior: sistemas de IA lançando armas nucleares por engano.”
12. Impactos ambientais
“O treinamento de modelos de linguagem demanda uma enorme quantidade de energia. A geração de uma única imagem consome tanta energia quanto carregar um celular. Como a IA será usada bilhões de vezes por dia, o impacto será significativo”, explica Marcus. Ele também alerta que a tendência é treinar modelos cada vez maiores, o que exigirá mais energia.