STF decide que redes sociais podem ser responsabilizadas por conteúdos ilegais
Nesta quinta-feira (26), o Supremo Tribunal Federal (STF) decidiu, por 8 votos a 3, que o artigo 19 do Marco Civil da Internet é parcialmente inconstitucional. A norma previa que redes sociais só poderiam ser responsabilizadas por conteúdos de usuários após ordem judicial. Com o novo entendimento, as plataformas passam a responder legalmente por publicações […]
Nesta quinta-feira (26), o Supremo Tribunal Federal (STF) decidiu, por 8 votos a 3, que o artigo 19 do Marco Civil da Internet é parcialmente inconstitucional. A norma previa que redes sociais só poderiam ser responsabilizadas por conteúdos de usuários após ordem judicial. Com o novo entendimento, as plataformas passam a responder legalmente por publicações ofensivas ou criminosas. A decisão altera a forma como empresas digitais devem lidar com conteúdos ilegais no Brasil.
Novas regras
A Corte declarou a inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet, que desde 2014 estabelecia que empresas como Facebook e Google só poderiam ser responsabilizadas por conteúdos nocivos se houvesse uma ordem judicial exigindo a retirada. Após a decisão, esse cenário muda significativamente.
Segundo a nova orientação, os provedores devem remover certos tipos de publicações após uma notificação extrajudicial, feita diretamente pela vítima ou por seu representante legal.
Caso a plataforma ignore o pedido e a Justiça posteriormente determine que o conteúdo era de fato ilícito, a empresa poderá ser penalizada.
Entre os conteúdos que exigem remoção imediata após notificação estão mensagens que promovem terrorismo, incitação ao suicídio, discriminação racial ou de gênero, violência contra a mulher, atos antidemocráticos e tráfico de pessoas. Já no caso de crimes contra a honra, como calúnia e difamação, continua valendo a necessidade de decisão judicial.
A Corte também reforçou que as redes sociais devem agir de maneira preventiva em relação a conteúdos que violem gravemente os direitos fundamentais, como discursos de ódio, racismo ou incitação à violência.
Nesses casos, mesmo sem qualquer notificação, as plataformas são obrigadas a intervir, e, se não o fizerem, responderão civilmente.
O novo entendimento impacta diretamente os protocolos de moderação das grandes empresas de tecnologia, exigindo maior responsabilidade na gestão do que circula em suas plataformas.
Votos
Durante o julgamento, os ministros divergiram quanto à extensão dessa responsabilidade. O relator Dias Toffoli e ministros como Gilmar Mendes, Alexandre de Moraes e Flávio Dino defenderam que o cenário tecnológico mudou desde 2014 e que é necessário proteger a dignidade humana diante do poder das plataformas.
Já os ministros André Mendonça, Edson Fachin e Nunes Marques foram contra a responsabilização direta. Nunes destacou que a liberdade de expressão é uma cláusula pétrea da Constituição e defendeu que mudanças nesse sentido deveriam partir do Congresso.
A decisão também afeta dois casos analisados durante o julgamento: um envolvendo o Facebook, condenado por danos morais por manter um perfil falso no ar, e outro envolvendo o Google, questionado sobre sua obrigação de moderar conteúdos ofensivos em sites hospedados pela empresa.
Agora, até que um novo marco legal seja criado pelo Congresso, a jurisprudência do STF passa a orientar o comportamento das plataformas no Brasil.
