LEIA MAIS: Crianças podem ser alvo de publicidade de apostas no Facebook
O volume é mais que o dobro que o número de 1,55 bilhão de contas falsas removidas durante o mesmo período do ano passado, segundo o relatório.
O relatório afirma que o Facebook proativamente detectou conteúdo afiliado a organizações terroristas em 98,5% das vezes em sua rede social e 92,2% no Instagram.
A companhia também removeu mais de 11,6 milhões de trechos de conteúdo que exibe nudez infantil e exploração sexual de crianças no Facebook e em 754 mil casos no Instagram no terceiro trimestre.
O Facebook também divulgou informações sobre suas ações relacionadas a conteúdo envolvendo suicídio pela primeira vez. A rede social afirmou que removeu cerca de 2,5 milhões de publicações no terceiro trimestre que mostravam ou encorajavam o suicídio ou automutilação.
Siga FORBES Brasil nas redes sociais:
Facebook
Twitter
Instagram
YouTube
LinkedIn