O Brasil não é o único país discutindo propostas para aumentar a responsabilidade das plataformas de internet.
Nos EUA, os republicanos tentam emplacar mudanças para punir plataformas que moderam teor “demais”, um tanto que eles consideram ser exprobação.
Já na União Europeia, no Reino Unificado, na Índia e no próprio Brasil, o objetivo é aumentar os incentivos para as plataformas removerem teor proibido —a percepção é que as big techs não fazem o suficiente.
Mas caso o país siga as teses do ministro Dias Toffoli e da AGU (Advocacia-Universal da União), defendidas no julgamento do Marco Social da Internet no STF (Supremo Tribunal Federalista), o Brasil terá uma regulação “jabuticaba”, inexistente nas grandes democracias do mundo.
A discussão se encaminhava para o STF emendar o cláusula 19 do Marco Social para chegar a um padrão que seria parecido com o da União Europeia. Lá, vigora o regime de “notice and action” (tomar conhecimento e agir).
Uma vez que uma plataforma de internet é notificada por um usuário sobre teor potencialmente proibido, ela pode ser responsável civilmente caso seja processada e perda –a não ser que tenha agido rapidamente para remover o teor e indagar a denúncia. Não é necessária uma ordem judicial, somente uma notícia extrajudicial.
Hoje, no Brasil, plataformas só podem ser responsabilizadas civilmente se não removerem teor depois ordem judicial, a não ser nos casos de violação de direitos autorais e imagens de nudez não consentidas. Nesse caso, bastam comunicações extrajudiciais, uma vez que denúncias de usuários. A tendência era que o Supremo incluísse nesse rol violações legais ao Estado democrático de Recta, racismo e homofobia.
Mas Toffoli, em sua tese, e o governo, na revelação da AGU, estabelecem um regime de responsabilidade objetiva para empresas de internet.
Nesse regime, as empresas podem ser responsabilizadas caso haja teor proibido, mesmo antes de receberem uma ordem judicial ou notificação extrajudicial, uma vez que uma denúncia de usuário. Com isso, elas teriam de monitorar ativamente todo o teor veiculado em suas redes e remover postagens potencialmente em violação.
O ministro do STF e a AGU propuseram uma lista de conteúdos vedados que poderiam gerar essa responsabilidade objetiva, entre eles: crimes contra o Estado democrático de Recta, atos de terrorismo ou preparatórios, persuasão a suicídio ou à automutilação, racismo, violência contra a gaiato e mulher e oposição a medidas sanitárias.
“Obrigação de monitoramento é uma superfluidade, não existe em nenhuma das grandes jurisdições democráticas”, diz Beatriz Kira, professora de recta da Universidade de Sussex, no Reino Unificado.
Tanto a legislação da União Europeia quanto a Lei de Segurança Online do Reino Unificado (que entrou em vigor em 2023 e está em temporada de implementação) estabelecem que não há responsabilização por conteúdos sem notificação extrajudicial e não pressupõem monitoramento.
“Há uma tendência mundial de regulação dos deveres das plataformas, porque esses modelos de isenção de responsabilidade, uma vez que a Seção 230 [dos EUA], partem do pressuposto de que essas empresas eram atores neutros que não interferiam na gestão do teor”, diz Laura Schertel Mendes, professora de recta do dedo da UnB e do IDP.
Ela considera que o cenário hoje é muito dissemelhante, porque “todos têm nitidez de que as plataformas intervêm no fluxo da informação por meio de algoritmos que controlam o escopo e a priorização do teor”.
Mendes, assim uma vez que outros especialistas, defende também uma abordagem sistêmica na regulação. Pela lei europeia, as plataformas têm que fazer relatórios sobre uma vez que pretendem mourejar com riscos sistêmicos uma vez que teor de pedofilia, oração de ódio, efeitos sobre processos democráticos, saúde pública e mental.
Outrossim, têm de publicar relatórios de transparência em que expliquem quais conteúdos removeram e quais mudanças em seus algoritmos fizeram para mitigar riscos. Auditores avaliam os relatórios e, caso haja descumprimento generalizado, as redes podem ser multadas. Não há punição por conteúdos únicos.
Na mesma traço, a lei do Reino Unificado prevê que as maiores plataformas façam relatórios sobre uma vez que estão aplicando os termos de uso das próprias empresas e supervisionando seu cumprimento, no chamado “obrigação de desvelo”.
“A pressão para que as redes sociais façam um trabalho melhor de moderação de teor proibido tem aumentado em diversos países. Mas uma decisão ‘legisladora’ do STF, criando regras em vez de somente delimitar a isenção, pode completar criando instabilidade jurídica”, diz Ivar Hartmann, professor de recta do Insper.
Na Índia, também há um movimento para restringir a isenção das plataformas. A lei lugar isenta as big techs de responsabilidade por teor postado por terceiros, desde que elas obedeçam a ordens judiciais ou governamentais para remoção de teor.
Mas o governo do primeiro-ministro Narendra Modi vem aumentando as responsabilidades das empresas por meio de emendas e anunciou no ano pretérito que está finalizando uma novidade Lei da Índia Do dedo.
Nos EUA, o debate segue linhas ideológicas. Os democratas pressionam para possuir exceções na isenção concedida a plataformas. Já os republicanos entendem que as big techs agem uma vez que censoras, principalmente de vozes conservadoras.
A pressão se intensificou desde que Donald Trump foi renegado do YouTube, Facebook e X (logo Twitter), culpado de incitar violência na invasão do Capitólio, em 6 de janeiro de 2021. Há diversos projetos de lei “anticensura” tramitando no Senado e Câmara que devem ser reintroduzidos no ano que vem —com a maioria republicana nas duas Casas, aumentam as chances de aprovação.
Outrossim, Brendan Carr, indicado pelo presidente eleito para presidir a Percentagem Federalista de Comunicações (FCC, na {sigla} em inglês), já afirmou que o órgão deveria trabalhar em conjunto com o Congresso para que “as empresas de internet deixem de ter epístola branca para vituperar oração legítimo”.