Justiça

STF estabelece nova regra: Redes Sociais devem responder por publicações ilícitas no Brasil

O Supremo Tribunal Federal (STF) avaliou em quais casos plataformas digitais, como X, Facebook e TikTok, devem remover conteúdos considerados ilegais ou ofensivos.

Por 8 votos a 3, o Supremo Tribunal Federal (STF) concluiu nesta quinta-feira, 26 de junho de 2025, que plataformas de redes sociais, como X, Facebook e TikTok, devem ser diretamente responsáveis por conteúdos ilícitos postados por usuários. A decisão, tomada após seis sessões consecutivas, declarou inconstitucional o Artigo 19 do Marco Civil da Internet (Lei 12.965/2014), que regulamenta o uso da internet no Brasil.

Esse artigo determinava que, para proteger a liberdade de expressão e evitar censura, as plataformas só poderiam ser responsabilizadas por conteúdos ilegais se não os removessem após ordem judicial. Antes do julgamento, as empresas de tecnologia não eram civilmente responsáveis por publicações como ataques à democracia, discurso de ódio, ofensas pessoais ou outros conteúdos ilícitos.

Com a decisão, o STF aprovou uma tese jurídica que estabelece diretrizes para a remoção de conteúdos pelas plataformas. O tribunal definiu que o Artigo 19 não garante adequadamente os direitos fundamentais nem protege a democracia. Até que uma nova lei seja criada, as plataformas serão civilmente responsáveis por conteúdos ilícitos, devendo removê-los após notificação extrajudicial, sem necessidade de ordem judicial, nos seguintes casos:

  • Conteúdos antidemocráticos;
  • Terrorismo;
  • Incentivo ao suicídio ou automutilação;
  • Discriminação por raça, religião, identidade de gênero, incluindo homofobia e transfobia;
  • Crimes contra mulheres ou conteúdos misóginos;
  • Pornografia infantil;
  • Tráfico de pessoas.

Votos no julgamento

O ministro Kassio Nunes Marques, último a votar, posicionou-se contra a responsabilização direta das plataformas, argumentando que essa decisão cabe ao Congresso. Para ele, a liberdade de expressão, garantida como cláusula pétrea na Constituição, deve ser preservada, e a responsabilidade por conteúdos ilícitos recai sobre o usuário que os publicou. “A liberdade de expressão é essencial para o debate de ideias, que impulsiona o progresso da sociedade em todos os campos do conhecimento”, destacou.

Por outro lado, os ministros Flávio Dino, Alexandre de Moraes, Gilmar Mendes, Cristiano Zanin, Luiz Fux, Dias Toffoli, Luís Roberto Barroso e Cármen Lúcia votaram pela responsabilização das plataformas. André Mendonça e Edson Fachin defenderam a manutenção das regras atuais, que exigem ordem judicial para responsabilização.

Cármen Lúcia destacou a evolução tecnológica desde 2014, quando o Marco Civil foi criado, apontando que as plataformas se tornaram “controladoras das informações” com algoritmos opacos. Moraes criticou o modelo de negócios “agressivo” das big techs, que, segundo ele, desrespeitam as leis brasileiras, transformando as redes em um espaço sem regras. Dino defendeu que as plataformas podem ser responsabilizadas civilmente por danos causados por conteúdos de terceiros.

Gilmar Mendes classificou o Artigo 19 como “obsoleto” e afirmou que a regulamentação das redes não ameaça a liberdade de expressão. Zanin argumentou que o artigo impõe aos usuários o ônus de recorrer à Justiça para remover conteúdos ofensivos, sendo inadequado para proteger direitos fundamentais. Fux e Toffoli apoiaram a remoção de conteúdos ilícitos por notificações extrajudiciais, enquanto Barroso defendeu que ordens judiciais são necessárias apenas para crimes contra a honra (calúnia, difamação e injúria). Para outros casos, como terrorismo ou conteúdos antidemocráticos, a notificação extrajudicial basta, desde que as plataformas avaliem cuidadosamente as postagens com base em suas políticas.

Casos analisados

O STF julgou dois recursos relacionados ao Marco Civil da Internet. No primeiro, relatado por Dias Toffoli, a Corte analisou a validade da exigência de ordem judicial para responsabilizar plataformas por conteúdos ilícitos. O caso envolve um recurso do Facebook contra uma condenação por danos morais devido à criação de um perfil falso.

No segundo, relatado por Luiz Fux, o tribunal avaliou se empresas que hospedam sites devem monitorar e remover conteúdos ofensivos sem intervenção judicial. O recurso foi apresentado pelo Google.

A decisão do STF, com repercussão geral, estabelece um precedente que impactará a moderação de conteúdos digitais no Brasil, obrigando as plataformas a adotarem medidas mais rigorosas contra conteúdos ilícitos.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *