Em decisão que contraria e abre exceção ao disposto no Marco Civil da Internet, a juíza Fabelisa Gomes Leal, da 3ª Vara Cível da Regional de Campo Grande (RJ), determinou, em sede de tutela provisória, que as redes sociais X (antigo Twitter), Facebook e TikTok removam, por meio de busca ativa com o uso de seus algoritmos, conteúdo que expõe uma pessoa menor de idade vítima de crime violento.
A decisão bate de frente com o que diz a norma brasileira e a própria jurisprudência, que, em geral, exige que a parte ofendida indique expressamente qual conteúdo deve ser removido, e que esse movimento de exclusão de conteúdo não pode ser feito de forma unilateral pelas empresas de tecnologia. A sentença da juíza do Rio fomenta a discussão sobre a necessidade de formulação de uma lei sobre a atuação das redes sociais, que permanecem sem regulamentação específica no Brasil.
Hoje, pelo que é disposto no Marco Civil, as plataformas não podem ser responsabilizadas pelos conteúdos postados por terceiros, à exceção dos casos em que haja descumprimento de decisão judicial para remoção de publicações. A norma, no entanto, resultou em inúmeros casos de descumprimento de sentenças por parte das redes sociais, incluindo em situações que envolvem estupro e pedofilia.
A ação foi impetrada em 2022 e corre sob segredo de Justiça. No processo, é relatado que inúmeras denúncias foram feitas nos canais de atendimento das empresas, que negaram todos os pedidos para remoção do conteúdo. O TikTok, por exemplo, chegou a ser acionado pelo seu canal específico que trata de violações de segurança e crimes envolvendo menores de idade, mas disse que o conteúdo não infringia as diretrizes da empresa.
A advogada da vítima, Gabriella Ventura, então, pediu, por meio de tutela de urgência, a remoção de 30 URLs que continham as imagens expondo o menor. A inicial também pediu que “as plataformas fossem obrigadas a viabilizar, pelos meios tecnológicos e algorítmicos que possuem, a localização ativa de conteúdo idêntico ao indicado na petição e excluir independentemente de nova provocação”.
Em um primeiro momento, a juíza de primeiro grau só atendeu à demanda parcialmente, ordenando a exclusão dos links. Provocada novamente pela omissão em relação ao segundo ponto, a juíza determinou a “localização ativa” das empresas controladoras das redes sociais, utilizando seus próprios meios tecnológicos, para remover os conteúdos, sob pena de multa de R$ 500 por dia de descumprimento.
O Ministério Público se posicionou a favor do pedido da vítima. Disse a juíza na decisão, em 16 de novembro de 2023: “Defiro a tutela provisória determinando que os réus procedam à retirada de imagens da autora veiculados nas redes sociais que a exponha de maneira indevida e não autorizada, desde que relacionada ao evento narrado na inicial, devendo os réus se servirem dos meios tecnológicos ao seu alcance para promoverem a localização ativa desses conteúdos através dos mecanismos de busca.”
O TikTok chegou a recorrer da decisão, alegando que o Marco Civil estipula que a remoção de conteúdo deve ser determinada por decisão judicial específica, com a apresentação do link do post a ser excluído.
No entanto, a desembargadora Marília de Castro Neves Vieira, em 7 de dezembro, negou o pedido de efeito suspensivo e manteve a decisão que determina a busca ativa. Não há data para o julgamento colegiado em segundo grau, pois o recurso que se encontra na fase de apresentação das contrarrazões.
“Ressalte-se ainda que, quando desejado pela agravante, esta consegue identificar postagens de conteúdo indesejado, contudo, no caso em comento, afirma sua impossibilidade. É certo não ser impossível à agravante promover a exclusão de conteúdo relacionado a agravada que ‘exponha de maneira indevida e não autorizada, desde que relacionada ao evento narrado na inicial'”, afirmou Marília Vieira.
Comentários
Postar um comentário