YouTube e o Twitter devem ser responsabilizados por conteúdo perigoso?

21 de fevereiro de 2023
Thiago Prudêncio/GettyImages

A administração Biden argumentou que a Suprema Corte deveria restringir o escopo da Seção 230 para tornar mais fácil processar plataformas de mídia social

A Suprema Corte dos Estados Unidos vai julgar se as principais plataformas de mídia social, entre elas Twitter, Facebook e YouTube, são responsáveis por postagens perigosas em suas plataformas. Processos protocolados na justiça questionam proteções que as empresas afirmam serem necessárias para evitar que a internet se transforme em uma terra de ninguém, mas os críticos afirmam que elas estão indo longe demais.

Pensando nessa linha tênue, a Suprema Corte ouvirá argumentos sobre dois processos contra o YouTube e o Twitter nos próximos dias.

Acompanhe em primeira mão o conteúdo do Forbes Money no Telegram

O primeiro foi movido por familiares de uma vítima dos ataques terroristas de Paris em 2015, alegando que o YouTube deveria ser responsabilizado após seu algoritmo recomendar vídeos de recrutamento do EI (Estado Islâmico) para potenciais apoiadores.

O segundo culpa o Twitter por seu papel no ataque terrorista de 2017, que aconteceu na Turquia.

O primeiro caso questiona se o YouTube pode ser responsabilizado pelas recomendações que faz, sob a Seção 230 da Lei de Decência nas Comunicações de 1996, que protege plataformas de mídia social de responsabilidade legal, dizendo que elas não são responsáveis por conteúdos postados por terceiros em sua plataforma.

Empresas de tecnologia, incluindo Google, Meta, Twitter, Microsoft e outras, argumentaram em documentos que uma decisão judicial dizendo que o YouTube pode ser responsabilizado teria consequências desastrosas, resultando em restrições amplas de qualquer conteúdo que poderia possivelmente ser considerado legalmente censurável – ou adotando a abordagem oposta e deixando tudo sem filtragem de conteúdo.

Grupos de defesa da Primeira Emenda, incluindo a ACLU e a Knight Foundation, alertaram que tais restrições podem prejudicar a liberdade de expressão e, se as plataformas de tecnologia forem forçadas a se livrar dos algoritmos de recomendação, o Google argumentou que a internet pode se transformar em uma “bagunça desorganizada e um campo minado de litígios”.

O caso do Twitter, que também envolve o Facebook e o Google, não diz respeito à Seção 230, mas questiona se as empresas de mídia social podem ser responsabilizadas sob a Lei Antiterrorismo, que permite ações judiciais contra qualquer pessoa que “ajuda e incita” um ato de terrorismo internacional.

Leia mais: ChatGPT vai ameaçar o reinado do Google?

Depois que um tribunal concluiu que apenas saber que terroristas estavam entre os usuários seria motivo suficiente para uma ação judicial, o Twitter argumentou que a decisão também resultaria em uma “responsabilidade particularmente ampla” para empresas de mídia social, e o Facebook e o Google sugeriram que isso poderia se estender a outras organizações que podem ter que trabalhar, mesmo indiretamente, com terroristas, incluindo grupos humanitários que prestam serviços em países como a Síria.

As pessoas que processaram o Google rejeitaram as terríveis previsões feitas pelas empresas de tecnologia, argumentando que são muito amplas e “em grande parte não relacionadas às questões específicas” do caso.

“As previsões de que uma decisão específica deste Tribunal terá consequências terríveis são fáceis de fazer, mas muitas vezes difíceis de avaliar”, argumentaram os peticionários, observando que, embora as empresas de mídia social ainda tenham outras salvaguardas legais para protegê-las, como a Primeira Emenda, não há como negar que os materiais promovidos em sites de mídia social de fato causaram sérios danos.

A administração Biden argumentou que a Suprema Corte deveria restringir o escopo da Seção 230 para tornar mais fácil processar plataformas de mídia social, alertando contra uma “leitura excessivamente ampla” do estatuto que poderia “minar a importância de outros estatutos federais”.

A Casa Branca argumentou que a Seção 230 não protege o YouTube de ações judiciais contra recomendações prejudiciais feitas por seu algoritmo, uma vez que suas recomendações são criadas pela empresa e não por conteúdo de terceiros.

A acusação também sugeriu que uma decisão contra o Google poderia ajudar as plataformas de mídia social a limpar algoritmos que resultaram em recomendações prejudiciais para menores, com o Electronic Privacy Information Center argumentando que as empresas de mídia social tiram proveito da natureza ampla da Seção 230 e “a usam como um escudo em vez de tornar seus produtos mais seguros.”

As decisões nos dois casos chegarão com o recesso da Suprema Corte, no final de junho ou início de julho. Também é possível que o tribunal não emita uma decisão abrangente sobre quando as empresas de mídia social podem ser responsabilizadas de acordo com a Seção 230. O Google argumentou que se o tribunal rejeitar o caso do Twitter dizendo que a família da vítima não tinha motivos para processar, poderia também rejeitar o caso do Google pelos mesmos motivos sem entrar na Seção 230.

O caso do Google chega à Suprema Corte depois que os tribunais distritais e de apelação ficaram do lado da plataforma de mídia social, determinando que ela é protegida pela Seção 230 e não pode ser processada.

O caso foi ouvido junto com o do Twitter perante o Tribunal de Apelações do Nono Circuito, mas o tribunal decidiu contra as plataformas de mídia social no caso do Twitter, sustentando que Twitter, Facebook e Google poderiam ser responsabilizados sob as leis antiterrorismo mesmo uma vez que manteve separadamente as proteções da Seção 230.