DIZEM OS ESPECIALISTAS

Projeto de Bolsonaro piora combate a fake news e texto na Câmara ignora inação das redes

A moderação feita por plataformas de redes sociais é criticada tanto pelo conteúdo como pela…

A moderação feita por plataformas de redes sociais é criticada tanto pelo conteúdo como pela forma. No primeiro caso, há críticas sobre o que é mantido no ar e sobre remoções abusivas. No segundo caso, são frequentes relatos de retiradas sem notificação ao usuário ou então com justificativas genéricas.

Na última semana, o presidente Jair Bolsonaro enviou ao Congresso um projeto de lei, o PL 3.227, que se aprovado limitaria e engessaria a moderação de conteúdo realizada pelas plataformas com mais de 10 milhões de usuários.

O debate sobre o tema já vem sendo travado no âmbito do projeto de lei das fake news, o PL 2.630, que foi aprovado em junho do ano passado no Senado e, no momento, está em discussão na Câmara.

Em relação aos procedimentos de moderação, ambas as propostas dão passos à frente, ao prever obrigações às plataformas, que, nas moderações, teriam que notificar usuários e permitir a possibilidade de recurso às suas decisões, por exemplo. Este ponto é de maior consenso entre especialistas.

Já quanto à análise feita pelas empresas sobre o mérito do conteúdo, os caminhos dos projetos são bastante diferentes —e o tema também gera maior divergência entre quem estuda o assunto.

Em linhas gerais, seria possível seguir três tipos de regulação: permitir que as plataformas moderem, proibir a moderação ou obrigar que retirem certos conteúdos.

A proposta de Bolsonaro é uma mistura do primeiro com o segundo caminho. Ele permite a moderação de alguns temas, previstos em uma lista, mas impede a remoção de tudo que está fora dela. Tal lista inclui, por exemplo, nudez e apologia implícita do consumo de drogas, mas não racismo e homofobia.

Com essa proibição, postagens com discurso de ódio, spam ou desinformação só poderiam ser retiradas pelas plataformas após decisão judicial.

Para além dos custos envolvidos, diante do volume de postagens criminosas ou inadequadas postadas diariamente nas redes sociais, especialistas apontam que seria inviável depender apenas do Judiciário.

Já o PL 2.630 pode não criar um obstáculo ao combate à desinformação, mas também não oferece uma ferramenta para lidar com a inação das plataformas.

O caminho seguido pelo projeto, até o momento, foi o de permitir a moderação, sem trazer previsões relacionadas a conteúdo, seja no sentido de obrigar a retirada ou de impedir. O projeto vedou robôs não identificados e contas inautênticas.

No momento, a proposta está em discussão em um grupo de trabalho na Câmara. O relator é o deputado Orlando Silva (PC do B-SP), que apresentará um texto substitutivo que deve trazer alterações em relação à proposta aprovada no Senado.

Além disso, a depender da decisão do presidente da Câmara, Arthur Lira (PP-AL), o projeto apresentado por Bolsonaro pode ser apensado ao das fake news e ser avaliado em conjunto pelos deputados.

Em linhas gerais, hoje um usuário que seja alvo de racismo em uma plataforma, por exemplo, poderia denunciar a postagem diretamente para a empresa, pedindo a remoção. Caso ela decida não remover, o indivíduo precisaria recorrer ao Judiciário.

No caso do PL 2.630 segundo o que foi aprovado pelo Senado, este cenário não mudaria.

Já pelo projeto de Bolsonaro, a empresa não poderia remover esse conteúdo sem uma decisão judicial, a não ser que haja “prática, apoio, promoção ou incitação de atos de ameaça ou violência”.

No caso, portanto, de a plataforma simplesmente não agir para remover conteúdos de discurso de ódio ou desinformativos, por exemplo, nenhum dos projetos traz soluções.

Ao longo da tramitação no Senado, o PL 2.630 chegou a trazer versões que previam a retirada de desinformação pelas plataformas ou de postagens que incidissem em uma lista de crimes.

Tais propostas, no entanto, foram abandonadas ao longo da tramitação, devido a possíveis danos colaterais à liberdade de expressão —um dos pontos espinhosos foi a dificuldade de definir o que seria desinformação.

Para a diretora do InternetLab Mariana Valente, o ideal seria que a legislação focasse determinações procedimentais. Ela destaca como um ponto positivo do projeto enviado por Bolsonaro a previsão de que as plataformas informem ao usuário qual política foi violada e embasou a moderação.

Valente, porém, considera inadequada a criação de uma lista do que pode ser moderado. “Pode fazer com que as plataformas não removam conteúdos que seriam importantes que fossem removidos por receio [de responsabilização].”

Ela não descarta que, no futuro, possa se pensar em uma lista, após um debate amadurecido, de temas sobre os quais as plataformas não poderiam realizar moderação.

Um estudo sobre violência política, do qual Valente é uma das autoras, feito dentro do projeto MonitorA em 2020 traz recomendações de como as plataformas podem facilitar as formas de mulheres denunciarem esse tipo de ataque. Uma delas a de que não seja preciso indicar conteúdo por conteúdo em situações de postagens em massa.

Este tipo de previsão, por exemplo, não consta em nenhum dos dois projetos de lei, assim como não há menção aos algoritmos das plataformas —nem de distribuição ou de moderação.

Para Ana Gabriela Ferreira, mestra em direito público e coordenadora na Artigo 19, diante da quantidade de postagens que circulam nas redes, a moderação de conteúdo que é realizada pelas plataformas não deveria ser coibida.

Ela afirma, contudo, que denúncias de discurso de ódio contra mulheres, mulheres negras e LGBTQIA+ são muitas vezes ignoradas e que, por outro lado, ao denunciar esses casos, esses grupos têm suas postagens derrubadas por serem identificadas por algoritmos como discriminatórias.

“Isso suprime a liberdade de expressão dos grupos específicos que são vítimas do discurso. A pessoa é duplamente atingida”, diz.

Na avaliação de Ferreira, seria importante que o projeto de lei trouxesse um desenho em que fosse possível recorrer das decisões das plataformas sem necessariamente depender do Judiciário. Ela aponta que o ideal seria criar uma autarquia ou uma agência reguladora independente das empresas e do Executivo e que pudesse emitir orientações e analisar recursos.

No PL 2.630, existe a previsão da criação de um Conselho de Transparência e Responsabilidade na Internet, com representantes do Estado, de empresas e da sociedade civil. Tal proposta, no entanto, difere da sugestão de Ferreira tanto em sua composição quanto nas competências. Caberia a esse órgão, segundo o projeto, criar um código de conduta, mas não revisar decisões.

Em relação ao texto apresentado por Bolsonaro, um outro ponto criticado por especialistas é que o texto deixa nas mãos de um órgão do governo federal a análise sobre se a moderação feita pelas plataformas é adequada, podendo-se aplicar multas e sanções. No caso do PL 2.630, caberia ao Judiciário a aplicação das sanções previstas na lei.

Para o professor associado do Insper Ivar Hartmann, a ideia de ter um órgão intermediário independente seria interessante, mas ele avalia que tal órgão poderia apenas analisar se a plataforma cumpriu deveres procedimentais. Quanto ao mérito da decisão das plataformas, ele defende que deveria caber apenas uma revisão ao Judiciário.

Hartmann avalia que o modelo atual, em que as plataformas só são obrigadas a retirar conteúdo após decisão judicial, conforme prevê o Marco Civil da Internet, é a melhor solução até o momento. Por outro lado, considera que é preciso definir parâmetros para que o Judiciário possa decidir quando uma remoção foi ou não abusiva.

“Nenhum país achou uma solução muito boa para isso [regulação da moderação] ainda. Até agora a gente só achou decisões menos ruins. Então isso é muito difícil”, afirma. “Quando a gente achar uma solução minimamente boa para esse problema, ela não vai ser uma solução simplista.”

Já o professor da Universidade de Frankfurt Ricardo Campos defende uma legislação que obrigue as plataformas a removerem alguns conteúdos, baseado em condutas que sejam consideradas crimes ou ilícitos, a exemplo da lei alemã.

Para ele, além de determinar regras procedimentais, é preciso diminuir a discricionariedade com que as plataformas decidem o tipo de conteúdo que pode ou não ser censurado.

“Depender de uma decisão judicial para criar uma responsabilidade da plataforma retirar é totalmente anacrônico dada a velocidade do mundo digital”, diz. “Por isso que a ação da plataforma de antemão, num primeiro plano e rapidamente, é importante. E ela já faz isso, só que de forma privada, baseada em critérios privados, e se esse critério diminuir o lucro dela, aí ela não vai fazer.”