STF obriga big techs a remover conteúdo antidemocrático
Por 8 a 3, STF decide aumentar responsabilização de plataformas antes de determinação judicial

(Folhapress) O Supremo Tribunal Federal (STF) decidiu ampliar as obrigações das plataformas de redes sociais para atuação no Brasil. A partir de agora, elas serão responsáveis civilmente caso não removam de forma pró-ativa uma nova lista de conteúdos, incluindo antidemocráticos, discriminatórios ou de incitação a crimes.
O colegiado apresentou nesta quinta-feira (26) a tese final do julgamento sobre o Marco Civil da Internet, após decidir, por 8 votos a 3, aumentar a responsabilização das big techs por conteúdos publicados por usuários.
Embora já houvesse maioria, foi preciso fazer um acordo em torno do texto, já que havia divergências entre os magistrados sobre sua amplitude, o momento e os casos em que as empresas devem ser responsabilizadas.
O colegiado se reuniu em um almoço que teve início por volta das 13h e seguiu até as 16h30, quando a sessão do STF foi iniciada.
O debate se deu em torno do artigo 19 do Marco Civil da Internet, em vigor desde 2014 e que diz que as plataformas só deverão indenizar usuários ofendidos por postagens de terceiros se descumprirem ordem judicial para remoção de conteúdo.
Foram 8 votos para a ampliação das obrigações, com os relatores Dias Toffoli e Luiz Fux, além de Luís Roberto Barroso, Cristiano Zanin, Flávio Dino, Gilmar Mendes, Alexandre de Moraes e Cármen Lúcia.
Já André Mendonça, Edson Fachin e Kassio Nunes Marques votaram contra a mudança do artigo 19.
A corte definiu que as plataformas são responsáveis por remover conteúdos que configurem as práticas de crimes graves como condutas e atos antidemocráticos, crimes de terrorismo ou preparatórios de terrorismo, crimes de induzimento, instigação ou auxílio a suicídio ou a automutilação, incitação à discriminação, crimes praticados contra a mulher, crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes.
A decisão também inclui a responsabilização dos provedores em caso de conteúdos ilícitos quando houver anúncios e impulsionamentos pagos ou com uso de robôs. Mas as plataformas ficarão isentas se comprovarem que atuaram em tempo razoável para tornar indisponível o conteúdo.
Segundo a decisão, essa representação deverá ser capaz de responder perante as esferas administrativa e judicial; prestar informações sobre o funcionamento do provedor, regras e procedimentos para moderação de conteúdo e gestão das reclamações pelos sistemas internos; o perfilamento de usuários, a veiculação de publicidade e o impulsionamento remunerado de conteúdos; cumprir as determinações judiciais; e responder e cumprir eventuais penalizações e multas.
Em outro ponto da conclusão, os ministros dedicaram um trecho da decisão para tratar da presença de representante legal no Brasil de empresas que atuem no território nacional.
O ministro Alexandre de Moraes esteve envolvido em embates com o X (ex-Twitter) e o Rumble justamente pela ausência de representantes legais dessas empresas no país.
O documento elaborado pelo STF tem um trecho ainda com um “apelo ao legislador”. “Apela-se ao Congresso Nacional para que seja elaborada legislação capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais.”
A Câmara dos Deputados travou em 2023 a tramitação do PL das Fake News, que abordaria a regulação dos temas.
Na abertura formal da sessão desta quinta, Kassio Nunes Marques disse fazer uma defesa da liberdade de expressão e afirmou que a solução para as questões postas não seria a prévia restrição a esse direito.
“Quando há dissenso de ideias que a garantia da liberdade de expressão se faz mais necessária. É justamente por meio desse livre debate de ideias que a sociedade tende a se desenvolver”, disse.
Ele defendeu a manutenção da responsabilização das big techs apenas após ordem judicial. Ele aderiu, assim, à divergência da corte que é mais favorável às plataformas. A posição ficou vencida, juntamente com Mendonça e Fachin.
O voto de Kassio foi o último do caso, que já havia formado maioria pela ampliação das obrigações das big techs por conteúdos publicados por terceiros.
O ministro disse entender conveniente que o Congresso se debruce sobre a matéria. Desde o início da discussão, o presidente da corte, Luís Roberto Barroso, enfatizou que o Supremo estava discutindo os recursos porque o Parlamento não legislou.
“O tribunal aguardou por um período bastante razoável a sobrevinda de legislação por parte do Legislativo e, não ocorrendo, chegou a hora de decidirmos esta matéria”, disse, na primeira sessão sobre o caso.
Nesta quinta, o plenário retomou o julgamento do caso que tomou 11 sessões. A primeira delas foi em novembro passado, quando os ministros ouviram as sustentações do caso. As duas primeiras sessões foram destinadas ao voto de um dos relatores Dias Toffoli.
O presidente do Google no Brasil, Fábio Coelho, afirmou apoiar a proposta de incluir crimes graves, exploração infantil e terrorismo nas exceções do artigo 19 do Marco Civil da Internet. A ideia se alinha às propostas mais moderadas de mudanças.
Coelho alerta, porém, para as “consequências indesejadas” caso haja uma mudança muito ampla na legislação. “Dependendo de como for essa atualização do artigo 19, isso pode nos tornar um pouco menos partícipes de todas as discussões que ocorrem no Brasil e nos levar a remover mais conteúdo no país.”