
O julgamento conjunto do RE 1.037.396/SP (Tema 987 RG) e do RE 1.057.258/MG (Tema 533 RG) redesenha o risco jurídico de quem hospeda e distribui conteúdo de terceiros — sobretudo redes sociais, buscadores e plataformas que vendem publicidade. O ponto central é estratégico: o STF não adotou responsabilidade objetiva como regra, mas criou regimes de responsabilização reforçada com presunção (relativa) de culpa em situações específicas, deslocando para o provedor o dever de demonstrar diligência.
Em especial, quando houver anúncios, impulsionamento pago ou rede artificial de distribuição (robôs/chatbots), passa a existir presunção de responsabilidade que pode ser afastada se a empresa demonstrar monitoramento adequado e remoção em tempo razoável.
Por que o STF julgou os Temas 533 e 987 em conjunto?
O Tema 987 discute a constitucionalidade do art. 19 do Marco Civil da Internet (Lei 12.965/2014), que condiciona a responsabilização do provedor à prévia e específica ordem judicial para retirada do conteúdo.
O Tema 533 é mais amplo porque tem pano de fundo anterior ao Marco Civil, quando se discutia, em termos gerais, o dever de remoção de conteúdo ofensivo por empresas da internet.
Na prática, o Supremo enfrenta a pergunta que interessa ao mercado: excluir conteúdo ofensivo é dever automático do provedor ou só há dever quando existir ordem judicial específica?
Art. 19 do Marco Civil: inovação e “freio” à censura privada
O art. 19 foi pensado para proteger a liberdade de expressão e reduzir custos de litígio, evitando que o medo de responsabilização leve plataformas a monitoramento geral e remoção preventiva (censura privada por excesso de zelo). O acórdão reconhece que, quando editada, a regra foi “opção constitucional e legítima à época”, voltada a não criar incentivos indevidos à supressão de conteúdos por simples alegação de ilicitude.
O voto também aponta a matriz comparada: a inspiração do art. 19 é a Seção 230 do Communications Decency Act (1996), referência na criação de um instituto civil pró-inovação para intermediários digitais.
O “efeito Prodigy”: Stratton Oakmont v. Prodigy e a lógica da Seção 230
A Seção 230 foi editada, em parte, como resposta legislativa ao caso Stratton Oakmont Inc. v. Prodigy Services Co. (1995), citado no acórdão como precedente em que se reconheceu responsabilidade de um intermediário que controlava, em alguma medida, o conteúdo publicado por terceiros.
A tensão é conhecida: se “moderar” for interpretado como “editar”, o intermediário passa a assumir risco da publicação; se houver proteção jurídica, consegue adotar políticas de moderação sem ser estrangulado por litigância.
Dimensão objetiva dos direitos fundamentais e proteção insuficiente
O acórdão relembra que a dimensão objetiva dos direitos fundamentais pode ser violada por omissão, quando o Estado deixa de agir “de modo suficiente, adequado e satisfatório” para proteger bens jurídicos relevantes.
Nesse caso, a Corte trabalhou com a ideia de vedação à proteção deficiente (um aspecto positivo da proporcionalidade). E afirma que as premissas de 2014 se alteraram, chegando a falar em inconstitucionalidade parcial e progressiva e omissão parcial quanto à proteção adequada de direitos fundamentais no regime do art. 19.
O STF criou hipótese de responsabilidade “sem culpa”?
A diferença que importa para a gestão de risco é esta:
- Responsabilidade objetiva: culpa é irrelevante; basta dano e nexo causal com a conduta.
- Presunção de responsabilidade (culpa presumida): a culpa continua relevante, mas se inverte o ônus da prova sobre este aspecto.
O STF reafirma que a afasta a responsabilização objetiva expressamente. Ao mesmo tempo, estabelece que o modelo dos impulsionamentos de conteúdo atrai o regime de presunção, com inversão do ônus da prova, permitindo que a plataforma se exima se demonstrar diligência proporcional e uso de boas práticas e tecnologias razoavelmente disponíveis.
O próprio acórdão ressalta que no caso a responsabilidade é subjetiva.
Quando a presunção se aplica?
O STF fixou presunção de responsabilidade em caso de conteúdo ilícito quando se tratar de:
(a) anúncios e impulsionamentos pagos; ou (b) rede artificial de distribuição (chatbot ou robôs).
Nessas hipóteses, a responsabilização pode ocorrer independentemente de notificação.
A Corte também distinguiu impulsionamento pago de recomendação algorítmica ordinária: a presunção não se estende automaticamente à curadoria cotidiana, sob pena de impor dever impossível e inviabilizar o funcionamento das redes sociais.
Como o provedor se exime?
Os provedores ficarão excluídos de responsabilidade se comprovarem que atuaram diligentemente e em tempo razoável para tornar indisponível o conteúdo, em prazo compatível com a gravidade da situação. Exemplifica-se: mesmo que o anúncio tenha passado por um primeiro filtro, a plataforma pode afastar a responsabilização se demonstrar que identificou a ilicitude e barrou a circulação em tempo adequado.
Ilícitos graves e dever de cuidado: o compliance vira prova
Além das presunções, o acórdão vincula a atuação de provedores a um dever de cuidado para prevenir e mitigar riscos sistêmicos, citando conteúdos “extraordinariamente nocivos” (como pornografia infantil e crimes graves contra vulneráveis; induzimento a suicídio/automutilação; tráfico de pessoas; terrorismo; e ataques ao Estado Democrático de Direito).
Daqui em diante, em muitos casos, a discussão deixa de ser “houve ordem judicial?” e vira “qual era o seu sistema de monitoramento, qual foi o tempo de resposta e quais evidências você consegue produzir?”.
O que sua empresa deve fazer agora
Se você opera plataforma, comunidade, aplicativo, portal com comentários ou campanhas de mídia paga, um plano defensável costuma incluir:
- Fluxo de anúncios auditável: critérios de aprovação e trilha de decisão.
- Detecção de rede artificial: antifraude e rotinas de neutralização.
- SLA jurídico: parâmetros de “tempo razoável” por gravidade, com evidência de execução.
- Preservação de prova digital: logs e registros para demonstrar diligência e afastar a presunção.
E para quem anuncia (mesmo sem ser “plataforma”)?
O julgamento não interessa apenas a grandes provedores. Se sua empresa contrata mídia paga, trabalha com influenciadores ou usa “dark posts”, o novo cenário aumenta o peso da governança de campanhas. A lógica é simples: quando há impulsionamento, o conteúdo passa por mecanismos de aprovação e direcionamento — e isso tende a gerar trilhas de auditoria, pedidos de identificação do anunciante e disputas contratuais (entre marca, agência, influencer e plataforma) caso surja dano.
Na prática, vale revisar: (i) cláusulas de conformidade e indenização em contratos de marketing; (ii) checklists de conteúdo sensível; (iii) regras para segmentação e públicos vulneráveis; e (iv) plano de resposta rápida para derrubada de anúncios, suspensão de contas ou notificações. Prevenção aqui evita a “pior combinação”: campanha interrompida + judicialização + desgaste reputacional.
Como um escritório pode ajudar
Há dois caminhos típicos: prevenção (auditoria, políticas, fluxos, termos de uso, governança de anúncios) e contencioso (tutelas de urgência, estratégia probatória e defesa baseada em diligência e tempo de resposta). Se sua empresa mantém presença digital relevante, este é um bom momento para revisar processos — antes do próximo incidente.
