Juíza inova ao mandar redes sociais fazerem busca para excluir conteúdo, por Alex Tajra

 Em decisão que contraria e abre exceção ao disposto no Marco Civil da Internet, a juíza Fabelisa Gomes Leal, da 3ª Vara Cível da Regional de Campo Grande (RJ), determinou, em sede de tutela provisória, que as redes sociais X (antigo Twitter), Facebook e TikTok removam, por meio de busca ativa com o uso de seus algoritmos, conteúdo que expõe uma pessoa menor de idade vítima de crime violento.

A decisão bate de frente com o que diz a norma brasileira e a própria jurisprudência, que, em geral, exige que a parte ofendida indique expressamente qual conteúdo deve ser removido, e que esse movimento de exclusão de conteúdo não pode ser feito de forma unilateral pelas empresas de tecnologia. A sentença da juíza do Rio fomenta a discussão sobre a necessidade de formulação de uma lei sobre a atuação das redes sociais, que permanecem sem regulamentação específica no Brasil.

Hoje, pelo que é disposto no Marco Civil, as plataformas não podem ser responsabilizadas pelos conteúdos postados por terceiros, à exceção dos casos em que haja descumprimento de decisão judicial para remoção de publicações. A norma, no entanto, resultou em inúmeros casos de descumprimento de sentenças por parte das redes sociais, incluindo em situações que envolvem estupro e pedofilia.

A ação foi impetrada em 2022 e corre sob segredo de Justiça. No processo, é relatado que inúmeras denúncias foram feitas nos canais de atendimento das empresas, que negaram todos os pedidos para remoção do conteúdo. O TikTok, por exemplo, chegou a ser acionado pelo seu canal específico que trata de violações de segurança e crimes envolvendo menores de idade, mas disse que o conteúdo não infringia as diretrizes da empresa.

A advogada da vítima, Gabriella Ventura, então, pediu, por meio de tutela de urgência, a remoção de 30 URLs que continham as imagens expondo o menor. A inicial também pediu que “as plataformas fossem obrigadas a viabilizar, pelos meios tecnológicos e algorítmicos que possuem, a localização ativa de conteúdo idêntico ao indicado na petição e excluir independentemente de nova provocação”.

Em um primeiro momento, a juíza de primeiro grau só atendeu à demanda parcialmente, ordenando a exclusão dos links. Provocada novamente pela omissão em relação ao segundo ponto, a juíza determinou a “localização ativa” das empresas controladoras das redes sociais, utilizando seus próprios meios tecnológicos, para remover os conteúdos, sob pena de multa de R$ 500 por dia de descumprimento.

O Ministério Público se posicionou a favor do pedido da vítima. Disse a juíza na decisão, em 16 de novembro de 2023: “Defiro a tutela provisória determinando que os réus procedam à retirada de imagens da autora veiculados nas redes sociais que a exponha de maneira indevida e não autorizada, desde que relacionada ao evento narrado na inicial, devendo os réus se servirem dos meios tecnológicos ao seu alcance para promoverem a localização ativa desses conteúdos através dos mecanismos de busca.”

O TikTok chegou a recorrer da decisão, alegando que o Marco Civil estipula que a remoção de conteúdo deve ser determinada por decisão judicial específica, com a apresentação do link do post a ser excluído.

No entanto, a desembargadora Marília de Castro Neves Vieira, em 7 de dezembro, negou o pedido de efeito suspensivo e manteve a decisão que determina a busca ativa. Não há data para o julgamento colegiado em segundo grau, pois o recurso que se encontra na fase de apresentação das contrarrazões.

“Ressalte-se ainda que, quando desejado pela agravante, esta consegue identificar postagens de conteúdo indesejado, contudo, no caso em comento, afirma sua impossibilidade. É certo não ser impossível à agravante promover a exclusão de conteúdo relacionado a agravada que ‘exponha de maneira indevida e não autorizada, desde que relacionada ao evento narrado na inicial'”, afirmou Marília Vieira.

“A evolução tecnológica exige uma interpretação da legislação que não privilegie as big techs em detrimento dos direitos dos cidadãos. O mundo todo atualmente discute a responsabilidade de plataformas de tecnologia. Precisamos refletir sobre o impacto social das redes sociais e a urgência de proteger os direitos fundamentais no âmbito digital. Uma moderação eficaz de conteúdo nocivo ou ilegal é possível, não é difícil e essas plataformas devem fazer”, diz Ventura à reportagem.

Comentários