O Supremo Tribunal Federal (STF) formou, nesta quarta-feira (11), maioria de votos a favor da responsabilização das plataformas digitais pelo conteúdo publicado por seus usuários. A Corte ainda deve analisar em detalhes os limites e condições exatas de responsabilidade civil das empresas sobre conteúdos criminosos. E acertar as divergências apontadas em voto pelos ministros.
O Marco Civil da Internet, sancionado em 2014, prevê neutralidade de redes, segurança de dados pessoais, garantindo diversidade e liberdade de expressão. Atualmente, determina que as redes sociais têm a obrigatoriedade de remover conteúdos de caráter ofensivo após ordem judicial específica, sob pena de responsabilização. Mas esse entendimento demonstra necessidade de reinterpretação e revisão.
Debate sobre responsabilidade sem ordem judicial
O STF analisa os recursos que têm como foco a possibilidade de responsabilização das plataformas digitais, mesmo sem decisão judicial prévia, pelos discursos de ódio, fake news ou conteúdo ofensivo que cause danos a terceiros.
E também, como questão central, se as redes sociais podem ser condenadas a pagar indenização por danos morais por não retirarem do ar postagens criminosas, mesmo sem ordem prévia da Justiça. Até agora, os votos a favor foram de Dias Toffoli, Luiz Fux, Flávio Dino, Cristiano Zanin, Gilmar Mendes e Luís Roberto Barroso.
Para finalização e fixação da tese, faltam os votos dos ministros Nunes Marques, Alexandre de Moraes, Edson Fachin e Cármen Lúcia.
Votos dos ministros
Dias Toffoli entendeu ser errado exigir decisão da Justiça para as redes sociais se responsabilizarem por conteúdos ofensivos publicados por usuários. Assim, considerou inconstitucional o artigo 19 do Marco Civil da Internet, que protege as plataformas contra punições por postagens ilícitas.
Ele defendeu que, em casos de racismo, por exemplo, as plataformas devem agir a partir de notificação extrajudicial feita pela vítima ou seu advogado, sem necessidade de esperar a Justiça.
Luiz Fux também considerou o artigo 19 inconstitucional. O ministro defendeu que, em casos de discurso de ódio, racismo, pedofilia, violência e atos antidemocráticos, as plataformas devem remover os conteúdos criminosos após notificação extrajudicial, sob pena de responsabilização. Ele também apontou a criação de canais sigilosos para denúncias e monitoramento de conteúdo.
O presidente do STF, Luiz Roberto Barroso, fez uma distinção: para crimes contra a honra, a remoção deve ocorrer após ordem judicial. Em casos que envolvam pornografia infantil, terrorismo, tráfico de pessoas ou golpe de Estado, a ação de remoção deve acontecer sem decisão judicial, cumprindo seu dever de cuidado.

Flávio Dino sugeriu responsabilização através do artigo 21 do Marco Civil, que permite a remoção com notificação extrajudicial da vítima ou seu advogado. Levantando a proibição de perfis falsos e robôs, que nesses casos cabe punição sem ordem judicial.
Cristiano Zanin, que declarou parcialmente inconstitucional o artigo 19, propôs que o artigo continue válido para provedores sem impulsionamento, mas defendendo que conteúdos criminosos devem ser removidos sem decisão judicial. Apenas se houver dúvida razoável sobre a legalidade do conteúdo, deverá haver análise para responsabilização.
Divergência
O voto divergente de André Mendonça defendeu o artigo 19 como constitucional. Para ele, a remoção de perfis só deve acontecer se forem verificados como falsos ou ilícitos. Havendo assim identificação dos usuários infratores. Não cabe responsabilização sem ordem judicial, principalmente quando o conteúdo envolve opiniões ou interpretações.
O STF deve deliberar sobre a tese final, entendendo aplicação a responsabilização e quais os critérios que usará.