A Meta anunciou nesta sexta-feira (5) mudanças em suas políticas sobre mídias criadas e alteradas digitalmente, que testarão sua capacidade de policiar conteúdo enganoso gerado por novas tecnologias de inteligência artificial em um ano com eleições importantes pelo mundo, incluindo nos Estados Unidos, em novembro.
A controladora do Facebook e do Instagram começará a aplicar rótulos “Made with AI” (“Feito com IA”, na tradução) em maio em vídeos, imagens e áudio gerados por IA publicados em suas plataformas, expandindo uma política que anteriormente abordava apenas uma pequena fatia de vídeos adulterados, disse a vice-presidente de política de conteúdo, Monika Bickert.
-
Siga o canal da Forbes e de Forbes Money no WhatsApp e receba as principais notícias sobre negócios, carreira, tecnologia e estilo de vida
A executiva disse que a Meta também aplicará rótulos separados e mais proeminentes à mídia alterada digitalmente que representa um “risco particularmente alto de enganar o público em uma questão importante”, independentemente do conteúdo ter sido criado usando IA ou outras ferramentas.
A nova abordagem mudará o tratamento dado pela empresa ao conteúdo manipulado. Ela deixará de se concentrar na remoção de um conjunto limitado de publicações e passará a se concentrar na manutenção do conteúdo, fornecendo aos espectadores informações sobre como ele foi criado.
A Meta anunciou anteriormente um esquema para detectar imagens feitas com ferramentas de IA generativas de outras empresas usando marcadores invisíveis incorporados aos arquivos, mas não informou uma data de início na ocasião.
Um porta-voz da empresa disse à Reuters que a nova abordagem de rotulagem se aplicará ao conteúdo postado no Facebook, Instagram e Threads. Os outros serviços, incluindo o WhatsApp e os visores de realidade virtual Quest, são cobertos por regras diferentes.
A Meta começará a aplicar os rótulos mais proeminentes de “alto risco” imediatamente, disse o porta-voz.
Em fevereiro, o conselho de supervisão da Meta chamou as regras existentes da empresa sobre mídia manipulada de “incoerentes” depois de analisar um vídeo do presidente Joe Biden, publicado no Facebook no ano passado, que alterava imagens reais para sugerir erroneamente que ele havia se comportado de forma inadequada.
A empresa permitiu que o conteúdo seguisse no ar, pois a política de “mídia manipulada” da Meta proibia vídeos alterados de forma enganosa somente se tivessem sido produzidos por inteligência artificial ou se fizessem com que as pessoas parecessem dizer palavras que nunca disseram de fato.
O conselho disse que a política também deve ser aplicada a conteúdo que não seja de IA, que “não é necessariamente menos enganoso” do que o conteúdo gerado por IA, bem como a conteúdo somente de áudio e vídeos que retratam pessoas fazendo coisas que nunca fizeram de fato.