A Meta anunciou nesta terça-feira (7) um conjunto de mudanças em suas práticas de moderação de teor que devem pôr término ao seu programa de checagem de fatos estabelecido em 2016 para sofrear a disseminação de desinformação em seus aplicativos.
Em vídeo publicado em sua conta no Instagram, o CEO da empresa, Mark Zuckerberg, também atacou “decisões secretas” de tribunais latino-americanos. Sem reportar o STF explicitamente, Zuckerberg diz que governo americano precisa ajudar a combater o que está sendo feito pelo Judiciário na região.
Para que redes sociais valem as mudanças?
Para as redes Facebook, Instagram e Threads
O que foi anunciado por Zuckerberg?
O CEO da Meta anunciou em seu oração (na íntegra) seis medidas:
- expelir os fact-checkers e os trocar por notas de comunidade, semelhantes às da rede social X
- simplificar políticas de teor e expelir várias restrições sobre temas porquê imigração e gênero
- mudar os filtros que escaneavam qualquer violação de política de teor permitido. Os filtros devem mostrar “violações ilegais e de subida sisudez”. Para violações de “baixa sisudez,” uma ação só será tomada depois denúncia de problemas
- retomar o que chamou de teor cívico: postagens e discussões relacionadas a política, governo, eleições e questões de interesse público que frequentemente geram debates nas redes sociais
- transferir da Califórnia para o Texas as equipes de crédito e segurança e moderação de teor
- trabalhar com o presidente Trump para resistir a governos ao volta do mundo que tentam regular as big techs —nas palavras do CEO da Meta, tais governos “perseguem empresas americanas e pressionam por mais exprobação”
As mudanças já valem para o Brasil?
As alterações começaram a valer nos Estados Unidos na terça-feira (7) e, segundo texto assinado pelo vice-presidente de assuntos globais da Meta, Joel Kaplan, serão expandidas para outros países.
De contrato com posicionamento da diretora do IFCN, Angie Holan, publicado no X (ex-Twitter), as parceiras americanas da big tech receberam a informação do término do programa poucos minutos antes de o CEO da Meta, Mark Zuckerberg, publicar o vídeo sobre as mudanças na política de moderação.
A filial brasileira Lupa, uma das primeiras a fazer parceria com a Meta, diz que não recebeu informações sobre o término do 3FCP no Brasil e vai continuar cumprindo o contrato que mantém com o conglomerado de redes sociais.
O Facebook possui um programa de checagem de fatos em mais de 26 idiomas que remunera mais de 80 organizações de mídia em todo o mundo para usar suas verificações de fatos em suas plataformas, porquê WhatsApp e Instagram.
O que fazem os checadores?
Segundo Natália Leal, CEO da Lupa, o papel dos checadores é priorizar “assuntos que viralizem e coloquem em risco a saúde pública, porquê publicações relacionadas à vacinação durante a pandemia, ou que ameacem instituições ou a própria democracia, porquê ocorreu no caso das urnas eletrônicas”.
Em entrevista à Folha, ela diz que a decisão sobre retirar ou não teor do ar é responsabilidade da Meta. “O que fazemos é indicar se um teor é falso”, diz. A big tech, portanto, decide o que remove ou bloqueia, de contrato com as diretrizes da comunidades. “A Meta nem nos avisa o que faz”, diz Leal.
As agências consideram três princípios: quem fala, o que está sendo falado e qual é o alcance dessa fala. Todas as parceiras da Meta no chamado 3FCP (Third-party Fact-Checking Program) eram signatárias dos termos do IFCN (Internacional Fact-Checking Network), entidade que atesta o apartidarismo e o rigor metodológico dos associados.
Uma vez que funcionam as notas de comunidade, que substituirão os checadores?
O trabalho de identificar potenciais violações às normas da Meta passará a permanecer sob responsabilidade dos usuários, em um padrão de notas da comunidade, similar ao que Elon Musk implementou no X (ex-Twitter).
As notas são propostas e redigidas por usuários voluntários, que precisam se inscrever previamente, e não são editadas pelas equipes do X. Outros usuários depois avaliam se o teor é útil e, se o glosa tiver votos o suficiente, passa a brotar inferior da publicação sob dúvidas.
Segundo o X em seu site solene, as avaliações “levam em conta não exclusivamente o número de colaboradores que classificaram uma publicação porquê útil ou inútil, mas também se as pessoas que a avaliaram parecem pertencer a diferentes esferas”. O princípio é semelhante ao da Wikipédia.
A Meta informou que os usuários poderão iniciar a se inscrever a partir de segunda-feira para redigir notas mal o programa for lançado, mas não forneceu detalhes sobre os critérios de participação.
As avaliações são eficazes contra a desinformação?
Pesquisadores mostraram que as notas de contexto “reduzem a disseminação de desinformação em murado de 20%” no X, disse à AFP Christine Balagué, professora do Instituto Mines-Télécom e fundadora da rede de pesquisa “Good in Tech”.
O risco é que a verificação depende da turba, segundo ela. “A turba pode expressar o claro, mas também pode possuir pessoas mal-intencionadas que estão ali para disseminar informações erradas”, alerta.
Lionel Kaplan, presidente da filial de geração de conteúdos em redes sociais Dicenda, considera que as avaliações permitem processar um maior volume de informações do que o fact-checking, que é “complicado de impor”. Também destaca o funcionamento “democrático”, que permite “ter e confrontar diferentes pontos de vista”.
O X, no entanto, é frequentemente criminado de permitir a espalhamento de informações falsas desde que Musk reduziu drasticamente as equipes de moderação. Segundo Kaplan, isso se deve principalmente ao vestimenta de que “o X incentiva o radicalismo”, tornando os conteúdos falsos mais visíveis do que em outras plataformas.
O que muda na política de teor?
A atualização nas diretrizes da Meta eliminam “regras excessivamente restritivas sobre temas porquê imigração e identidade de gênero, que frequentemente são objeto de debate político”, afirmou em enviado o novo diretor de assuntos globais da empresa, Joel Kaplan.
A novidade versão das diretrizes aparece na versão em inglês americano das regras da Meta e vale para Facebook, Instagram e Threads. Não houve mudança na tradução em português, porém a própria empresa informa que “a versão em inglês dos EUA dos Padrões da Comunidade reflete o conjunto mais atualizado de políticas e deve ser usada porquê o documento principal”.
A empresa passará a permitir:
- teor que relacione doença mental ou anormalidade com base em gênero ou orientação sexual, considerando o oração político e religioso sobre transexualidade e homossexualidade
- teor direcionado a pessoas com base em suas “características protegidas”, porquê raça, etnia e identidade de gênero, quando combinado com “alegações de que essas pessoas têm ou espalham o coronavírus”. Sem essa provisão, agora pode ser permitido, por exemplo, acusar chineses de serem responsáveis pela pandemia de Covid-19, segundo a Wired.
-
teor que defenda “limitações baseadas em gênero para trabalhos militares, policiais e de ensino. Também permitimos o mesmo tipo de teor fundamentado em orientação sexual, quando se baseia em crenças religiosas”. Isso pode perfurar espaço a posts que argumentem, por exemplo, que mulheres não deveriam ser permitidas no serviço militar ou que homens não deveriam ensinar matemática por justificação de seu gênero, analisa a Wired
-
teor que questione “o entrada a espaços frequentemente limitados por sexo ou gênero, porquê banheiros, escolas específicas, papéis específicos no Tropa, polícia ou ensino, e grupos de saúde ou suporte”.
-
a Meta ainda proíbe teor que possa “incitar violência iminente ou intimidação”, mas alterou trecho do texto que dizia que discursos de ódio podem “promover violência offline”.
Procurada pela Folha, a empresa não respondeu se irá incluir a mudança também nas diretrizes em português. Em 2019, o Supremo Tribunal Federalista enquadrou a homofobia e a transfobia na lei dos crimes de racismo até que o Congresso Vernáculo aprove uma legislação sobre o tema.
Questionado se a Meta poderia ter problemas com a Justiça brasileira por homofobia ou transfobia, o jurisperito Renato Opice Blum, técnico em crimes digitais, afirma que “esse é o típico caso que irá para o Judiciário sentenciar”. “A lei se sobrepõe à política.”
Os usuários da União Europeia podem enviar um pedido judicial para remoção de teor que violem leis locais sobre oração de ódio. Não há menções à legislação brasileira.
A versão atual da política continua proibindo:
- negar o Sacrifício
- usar blackface
- insinuações sobre pessoas judias controlando a mídia
- confrontar pessoas negras a “equipamentos agrícolas”, proibição que foi adicionada ao texto nesta novidade versão
-
ataques de “Nível 1” ou “mais severos”, contra migrantes, imigrantes e solicitantes de asilo
-
invocar imigrantes, muito porquê pessoas pertencentes a grupos de “características protegidas,” de insetos, animais, patógenos ou “outras formas de vida sub-humanas”
-
declarar que imigrantes são criminosos ou imorais
A Meta também manteve sua lista anterior de características protegidas, que incluem raça, etnia, origem pátrio, deficiência, afiliação religiosa, genealogia, orientação sexual, sexo, identidade de gênero e doenças graves.
Segundo analistas, o oração de Zuckerberg indique que a big tech atuará de modo mais veemente contra iniciativas de regulação das plataformas globalmente.
O possuidor da Meta citou a Europa e “tribunais da América Latina”, no que foi lido porquê uma referência ao STF (Supremo Tribunal Federalista), onde há iniciativas para ampliar obrigações das empresas.
Além de ter determinado uma série de ordens de remoção de teor e de perfis nos últimos anos, a incisão brasileira começou a julgar em novembro do ano pretérito duas ações que podem aumentar a responsabilidade das plataformas.
Até o momento, três ministros votaram, apresentando teses que, se aprovadas, na prática implementariam uma regulação das redes no Brasil.
A atuação do tribunal se dá depois empacarem no Congresso tentativas de aumentar os deveres da plataformas no Brasil, porquê no chamado PL das Fake News. Sob lobby das empresas e resistência de políticos bolsonaristas, que buscaram grudar à proposta a pecha de exprobação, o projeto não avançou.