![](https://convergenciadigital.com.br/wp-content/uploads/2024/05/remocao-conteudo.jpg)
A Advocacia-Geral da União quer pressa do Supremo Tribunal Federal no julgamento dos recursos extraordinários que envolvem a responsabilidade das plataformas digitais sobre conteúdo postado pelos usuários.
“Revela-se premente a conclusão do julgamento, por essa Suprema Corte, do mérito do presente recurso extraordinário, a fim de que se promova um ambiente digital seguro e caracterizado pelo respeito aos direitos fundamentais e aos valores democráticos”, defende a AGU em petição encaminhada ao STF nesta sexta, 7/2.
A AGU também pede que sejam incluídos nos processos os subsídios colhidos durante a audiência pública realizada em 22 de janeiro, na qual especialistas e entidades da sociedade civil manifestaram preocupação com as mudanças nas políticas de moderação de conteúdo anunciadas pela Meta, controladora do Facebook, Instagram, WhatsApp e Threads.
Para a AGU, as mudanças podem impactar negativamente os direitos fundamentais, especialmente no combate a discursos de ódio. E argumenta que a nova política de moderação de conteúdo da Meta, anunciadas em 7 de janeiro, violam garantias constitucionais e legais e contrariam diretrizes internacionais de proteção aos direitos humanos.
A AGU destaca que a Meta afrouxou as regras de seus Termos de Uso, permitindo a circulação de discursos de ódio contra grupos vulneráveis, como LGBTQIA+, imigrantes, mulheres e minorias religiosas. Entre as mudanças, a empresa passou a permitir a associação de orientação sexual e identidade de gênero a transtornos mentais, além de autorizar a desumanização de mulheres e a defesa de limitações profissionais baseadas em gênero. Também foram suprimidas restrições que proibiam a intolerância explícita com base em características como raça, religião e orientação sexual.
O julgamento, que trata da constitucionalidade do artigo 19 do Marco Civil da Internet (Lei 12.965/14), começou em novembro de 2024 e foi suspenso após pedido de vista do ministro André Mendonça. Três ministros já votaram.
Relator de um dos REs, José Dias Toffoli defendeu a responsabilidade objetiva das plataformas por danos decorrentes de conteúdos ilícitos, como racismo e violência contra grupos vulneráveis, e estabeleceu deveres de transparência e prevenção para as empresas. Relator do segundo recursos sobre o mesmo tema, Luiz Fux reconheceu o dever de monitoramento ativo e remoção imediata de conteúdos criminosos, como discursos de ódio e apologia à violência. Já o presidente do STF, Luís Roberto Barroso, defendeu que as plataformas devem ser responsabilizadas caso não adotem medidas para remover postagens.