O Supremo Tribunal Federal (STF) determinou, nesta quinta-feira (26), a tese que define o controle das redes sociais em relação ao conteúdo postado por usuários.
Ou seja, fixou em que situações as plataformas digitais podem ser acionadas, na Justiça, por conta de conteúdos de terceiros.
A decisão foi tomada na décima segunda sessão da Corte sobre o tema. Com isso, foi concluído o julgamento de dois recursos extraordinários que discutiam a possibilidade de punição a estas plataformas.
O que o Supremo analisou?
A questão envolve a chamada responsabilidade civil, ou seja, a possibilidade de que alguém seja acionado e condenado na Justiça por danos causados por uma ação ou omissão, sua ou de outra pessoa. Se isso ficar configurado, a Justiça pode condenar a pessoa ao pagamento, por exemplo, de indenizações.
A Corte julgou dois recursos que discutem o alcance da responsabilidade civil de plataformas digitais por conteúdos de seus usuários. O tema está previsto no artigo 19 do Marco Civil da Internet.
A lei, que entrou em vigor em 2014, funciona como uma espécie de Constituição para o uso da rede no Brasil – estabelece princípios, garantias, direitos e deveres para usuários e empresas.
O artigo 19 prevê que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar.
Ou seja, da forma como está na lei, a responsabilidade das plataformas só era aplicável depois de uma ordem da Justiça não cumprida.
O que o STF decidiu sobre o artigo 19?
Por maioria de votos, o tribunal concluiu que as plataformas digitais são responsáveis por conteúdos gerados por seus usuários.
O artigo 19 do Marco Civil da Internet foi considerado parcialmente inconstitucional. Isso significa que ele não foi totalmente invalidado – permanece aplicável na legislação em algumas situações específicas, fixadas pela Corte.
Nos crimes contra a honra (injúria, calúnia e difamação), por exemplo, ainda será necessária uma ordem judicial para retirar o conteúdo do ar. Mas, mesmo nestes casos, foi mantida a possibilidade de remoção por notificação extrajudicial (aquela em que a vítima ou o advogado dela acionam diretamente a plataforma).
Em casos de crimes, atos ilícitos e contas inautênticas (criadas por robôs, por exemplo), a regra será a aplicação da regra do artigo 21 do Marco Civil da Internet. Este trecho da lei permite que uma notificação privada – feita diretamente pela vítima ou seu representante à plataforma – já determine que o conteúdo seja retirado do ar. Ou seja, na prática, em circunstâncias como esta, não será preciso necessariamente ir à Justiça para combater o dano.
Os provedores de internet vão ter que trabalhar de forma ativa para combater conteúdos considerados ilícitos?
Sim. Pela decisão, os provedores já são considerados responsáveis se não agirem para retirar do ar conteúdos ilícitos quando veiculados por:
1-anúncios e impulsionamentos pagos;
2-redes artificiais de distribuição (chatbots ou robôs);
Nesses casos, as empresas respondem mesmo que não tenham sido notificadas de que está no ar material ilegal. Eles só serão isentos caso comprovem que atuaram de forma diligente e em tempo razoável para tornar a postagem indisponível.
Quais são os deveres das redes quanto à circulação em massa de conteúdos crimes graves?
Há responsabilidade das redes sociais quando elas não bloqueiam imediatamente conteúdos que configurem crimes graves. São eles:
1-atos antidemocráticos – crimes como golpe de Estado, abolição violenta do Estado Democrático de Direito, interrupção do processo eleitoral, violência política, sabotagem;
2-terrorismo, inclusive seus atos preparatórios;
3-crimes de induzimento, instigação ou auxílio a suicídio ou a automutilação;
4-incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero (condutas homofóbicas e transfóbicas);
5-crimes contra a mulher, inclusive conteúdos que propagam ódio ou aversão às mulheres;
6-crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes;
7-tráfico de pessoas.
Nesse ponto, a possibilidade de que as “big techs” respondam vai surgir quando ficar configurada a chamada “falha sistêmica”. Ela ocorre quando o provedor deixa de tomar as medidas de prevenção ou remoção das postagens. Na prática, é quando fica evidenciado que não foi cumprido o dever de atuar de forma responsável, transparente e cautelosa.
Você precisa fazer login para comentar.