A Inteligência Artificial (IA) é capaz de produzir escrita, imagens, música e vídeo cada vez mais semelhantes aos humanos. Houve relatos de estudantes usando a tecnologia para trapacear, por exemplo, além de varias outras aplicações.
Leia também:
- A IA deixará os seres humanos inúteis?
- 5 lançamentos da Meta que levam inteligência artificial
- Por que 2023 será o ano da inteligência artificial?
No entanto, há também casos de professores que usam IA para “provar” que seus alunos trapacearam. Há também uma ocorrência recente de um fotógrafo que venceu uma competição enviando uma foto gerada por IA em vez de uma que ele mesmo tirou. Nesse caso, o fotógrafo teve boas intenções e devolveu o prêmio após expor o que havia feito.
Felizmente, existem alguns métodos bastante precisos – por enquanto – para detectar onde os trabalhos foram criados com a ajuda da IA. Neste artigo, examinarei quais ferramentas existem, como funcionam e por que podem ser vitais para a segurança e a integridade acadêmica e artística.
À medida que o conteúdo criado por IA se torna mais comum, seu potencial de causar consequências perturbadoras e potencialmente prejudiciais aumenta. Um grande exemplo é o fenômeno das “deep fakes”, onde podem ser feitas imagens realistas de vídeos ou pessoas que parecem fazer ou dizer coisas que nunca fizeram.
Parte disso pode parecer engraçado, mas existe o potencial de ter consequências danosas para as pessoas envolvidas – ou para a sociedade em geral, caso influencie os processos democráticos.
Se for usado por alunos para colar em redações e exames, pode prejudicar a integridade dos sistemas educacionais e a reputação de escolas e faculdades. Isso pode resultar em uma preparação inadequada dos alunos para as carreiras que desejam ingressar e na desvalorização de diplomas e certificados.
Tudo isso destaca a importância de medidas robustas para educar o público sobre os perigos da IA e, sempre que possível, aplicar a prevenção. Sem que esse problema seja resolvido, a IA pode levar a desinformação, manipulação e danos generalizados. Então, o que exatamente pode ser feito?
Métodos para detectar conteúdo gerado por IA
Felizmente, existem vários métodos disponíveis para detectar conteúdo gerado por IA.
Em primeiro lugar, estão as ferramentas digitais que usam seus próprios algoritmos de IA para tentar determinar se um texto, uma imagem ou um vídeo foi criado usando IA.
Você pode encontrar vários detectores de texto IA disponíveis gratuitamente online. O AI Content Detector afirma ser 97,8% confiável e pode examinar qualquer parte do texto em busca de sinais de que não foi escrito por um humano. Isso é feito treinando o detector nos métodos e padrões usados por ferramentas como ChatGPT e outros modelos de linguagem grandes quando criam texto. Em seguida, ele compara essas informações com o texto enviado para tentar determinar se é uma escrita humana natural ou um texto criado por IA.
Reconhecendo a ameaça que os vídeos e imagens gerados por IA podem representar para a segurança nacional, as organizações militares também se juntaram à luta. A Agência de Projetos de Pesquisa Avançada do Departamento de Defesa dos EUA (DARPA) criou ferramentas que visam determinar se as imagens foram criadas ou manipuladas por IA. Uma das ferramentas, conhecida como MediFor, funciona comparando a imagem gerada por IA com imagens do mundo real, procurando por sinais reveladores, como variações no efeito de iluminação e coloração que não correspondem à realidade. Outro, conhecido como SemaFor, analisa o contexto entre fotos e legendas de texto ou notícias que as acompanham.
Por fim, não devemos ignorar o papel que o julgamento humano e o pensamento crítico podem desempenhar na detecção de conteúdo de IA. Os seres humanos têm um senso de “instinto” que – embora certamente não seja infalível – pode nos ajudar quando se trata de determinar a autenticidade. Lançando um olhar crítico e aplicando o que sabemos – é realmente provável que Joe Biden crie um vídeo de si mesmo cantando Baby Shark ? – é essencial, em vez de delegar toda a responsabilidade às máquinas.
O futuro da detecção de IA – uma corrida armamentista?
É provável que estejamos apenas testemunhando os estágios iniciais do que será um cenário de “corrida armamentista”, à medida que a IA se torna mais eficiente na criação de conteúdo realista e os criadores de ferramentas de detecção correm para acompanhar.
Esta não é uma batalha que será travada apenas entre tecnólogos. À medida que as implicações para a sociedade se tornam mais claras, governos e grupos de cidadãos descobrirão que têm um papel importante como legisladores, educadores e guardiões da “verdade”. Se descobrirmos que não podemos mais confiar no que lemos, assistimos, vemos e ouvimos, nossa capacidade de tomar decisões informadas em todas as esferas da vida, da política à ciência, ficará comprometida.
Reunir soluções tecnológicas, julgamento humano e supervisão informada e intervenção, quando necessário, de reguladores e legisladores será nossa melhor defesa contra esses desafios emergentes.
*Bernard Marr é um autor best-seller internacional, palestrante popular, futurista e consultor estratégico de negócios e tecnologia para governos e empresas.
(traduzido por Andressa Barbosa)