Corte Suprema determina: redes sociais serão responsáveis por conteúdo nocivo

Na última quinta-feira (27/6), o Supremo Tribunal do Brasil tomou uma decisão histórica: plataformas como Meta (Facebook/Instagram), Google e TikTok poderão ser responsabilizadas por conteúdos nocivos publicados por usuários — mesmo sem ordem judicial prévia.

Imagem Flickr :  Crédito: Marcos Oliveira/Agência Senado

O que mudou na legislação

Antes da decisão, as redes só precisavam remover conteúdo ilegal mediante decisão judicial. Agora, com 8 votos a favor e 3 contrários, o tribunal determinou que as plataformas devem agir imediatamente ao receber denúncias de posts contendo discurso de ódio, incitação à violência, racismo ou atos antidemocráticos. Se não o fizerem, qualquer pessoa pode acioná-las judicialmente.

 Contexto e impacto

  • A medida surge após crescentes manifestações preocupantes, como os ataques a prédios públicos em Brasília, em 8 de janeiro de 2023, e a disseminação rápida de conteúdos que atentam contra a democracia .

  • Embora países da União Europeia já tenham regulamentação semelhante, o Brasil amplia seu protagonismo na regulação global das redes

  • Até recentemente, o Artigo 19 do Marco Civil da Internet protegia as plataformas digitais de responsabilidade civil por conteúdos gerados por terceiros, a menos que não cumprissem uma ordem judicial para removê-los. Essa regra, em vigor desde 2014, era vista como uma forma de equilibrar a liberdade de expressão e evitar a censura, mas também criava uma zona de conforto para as empresas, que muitas vezes se omitiam diante de conteúdos problemáticos, como discurso de ódio, desinformação ou ataques à democracia. O STF, no entanto, entendeu que o cenário digital mudou drasticamente desde então, com as redes sociais desempenhando um papel central na disseminação de informações – e, consequentemente, de conteúdos nocivos.

  • O julgamento, que se estendeu por 12 sessões, analisou dois casos concretos. Um deles envolvia uma professora que processou o Google por se recusar a remover uma comunidade no extinto Orkut que a difamava, mesmo após notificação extrajudicial. O outro caso tratava de questões semelhantes sobre a responsabilidade das plataformas. A decisão do STF, relatada pelo ministro Dias Toffoli, teve apoio de Luiz Fux, Luís Roberto Barroso, Cármen Lúcia, Flávio Dino, Cristiano Zanin, Gilmar Mendes e Alexandre de Moraes. André Mendonça, Edson Fachin e Kassio Nunes Marques votaram pela manutenção das regras atuais, defendendo que a responsabilidade deveria recair apenas sobre quem publica o conteúdo, não sobre as plataformas.

    Referencia: editorandpublisher.com+7apnews.com+7reuters.com+7.

 O que acontece agora

  1. As plataformas deverão monitorar e remover conteúdos nocivos sem esperar ordem judicial.

  2. Usuários podem denunciar diretamente, e, caso a rede ignore, podem processar a empresa.

  3. A decisão sinaliza que mais regulamentações podem surgir, tanto no Congresso quanto no Judiciário.

Além disso, conteúdos impulsionados por anúncios pagos ou disseminados por robôs terão responsabilização imediata, mesmo sem notificação prévia, caso as empresas não demonstrem diligência em removê-los. Para crimes contra a honra, como calúnia e difamação, a exigência de ordem judicial foi mantida.

O STF também estabeleceu que as plataformas devem criar mecanismos claros de autorregulação, com políticas transparentes para lidar com notificações e relatórios anuais sobre moderação de conteúdo. Outra exigência é que as empresas mantenham representação jurídica no Brasil, garantindo que cumpram decisões judiciais e forneçam informações quando solicitadas. Essa medida é vista como uma forma de aumentar a accountability das big techs, que muitas vezes operam em escala global sem se adaptar às particularidades legais de cada país.

 Pontos de debate

  • Críticos alertam que a medida pode gerar censura preventiva, com postagens legítimas sendo removidas por receio legal;

  • Empresas de tecnologia avisam que a regra traz incertezas jurídicas, além de possíveis entraves à inovação e economia;

  • Especialistas em mídia, como o professor David Nemer, destacam que a decisão é um avanço no enfrentamento ao ódio digital, mantendo um papel do Judiciário em casos de calúnia e difamação.

 Por que isso é relevante para você

  • Seu conteúdo pode ser afetado: seja por falar de política, causas sociais ou direitos.

  • Empresas, criadores e páginas terão de revisar seus sistemas internos de moderação.

  • A decisão reforça o exercício da cidadania digital: você pode usar esse novo instrumento para cobrar mais responsabilidade online.

Impactos no Brasil e no Mundo

A decisão do STF coloca o Brasil na vanguarda da regulação digital, em um momento em que países como Estados Unidos e Reino Unido também debatem como responsabilizar as plataformas por conteúdos nocivos. Nos EUA, por exemplo, a Seção 230 do Communications Decency Act ainda protege as empresas de responsabilidade por conteúdos de terceiros, mas há pressões para reformar essa lei, especialmente após casos como a suspensão de contas de figuras políticas controversas, como Donald Trump, em 2021. No Brasil, a decisão do STF reflete a urgência de combater a desinformação e o discurso de ódio, que ganharam força em episódios como os ataques de 8 de janeiro de 2023 em Brasília.

Para as empresas, a nova regra pode significar um aumento nos custos operacionais, já que precisarão investir em equipes de moderação mais robustas e sistemas de inteligência artificial para identificar conteúdos problemáticos. Fábio Coelho, presidente do Google no Brasil, alertou em entrevista ao UOL que as plataformas podem adotar uma postura mais conservadora, removendo conteúdos potencialmente questionáveis para evitar multas ou processos. Isso levanta preocupações sobre a liberdade de expressão, já que decisões precipitadas podem acabar suprimindo conteúdos legítimos.

Por outro lado, defensores da decisão, como o ministro Alexandre de Moraes, argumentam que a medida fortalece a proteção contra crimes digitais e reforça a democracia. “A liberdade de expressão é pedra fundamental para a troca de ideias, mas não pode ser usada como escudo para a propagação de conteúdos que atentem contra direitos humanos ou instituições democráticas”, afirmou Moraes durante o julgamento. Organizações de direitos humanos, como a Anistia Internacional, também celebraram a decisão, destacando que ela pode ajudar a proteger vítimas de assédio online e crimes de ódio.

Conclusão

A decisão do STF de responsabilizar redes sociais por conteúdos nocivos é um passo ousado para tornar o ambiente digital mais seguro e responsável. Embora traga desafios, como o risco de censura excessiva e a complexidade de implementação, ela reflete a necessidade de adaptar as leis à realidade de um mundo hiperconectado. À medida que o Brasil lidera esse debate, o impacto dessa decisão pode inspirar mudanças globais, desafiando as big techs a repensarem seu papel na sociedade. Para os usuários, é uma oportunidade de refletir sobre a importância de um uso ético e consciente da internet.

Referências:

  • STF decide que redes sociais são responsáveis por conteúdos ilegais – Agência Brasil, 26/06/2025

  • STF e big techs: Corte tem placar de 7×1 para endurecer regras – BBC News Brasil, 11/06/2025

  • STF define que redes sociais são responsáveis por postagens de usuários – G1, 27/06/2025

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *