A Meta anunciou nesta terça-feira (7) que encerrará seu programa de checagem de fatos para substituí-lo por um sistema de notas de contexto, semelhante ao utilizado pela rede social X (ex-Twitter).
As notas de contexto são uma utensílio de moderação coletiva de conteúdos. Elas aparecem inferior de algumas publicações potencialmente enganosas.
Em 2022, elas foram amplamente implementadas na rede social depois a compra pelo bilionário Elon Musk.
As notas são propostas e redigidas por usuários voluntários, que precisam se inscrever previamente, e não são editadas pelas equipes do X.
Depois, “outros usuários avaliam se a nota é útil ou não, com base em critérios porquê a pertinência das fontes e a nitidez das informações”, explicou à AFP Lionel Kaplan, presidente da escritório de geração de conteúdos em redes sociais Dicenda.
“Se houver avaliações positivas suficientes, a nota aparecerá inferior do post, fornecendo informações adicionais”, detalhou.
As avaliações “levam em conta não unicamente o número de colaboradores que classificaram uma publicação porquê útil ou inútil, mas também se as pessoas que a avaliaram parecem pertencer a diferentes esferas”, explica o X em seu site solene.
O princípio é semelhante ao da Wikipédia. “Nós nos baseamos nos usuários mais ativos de uma rede social ou plataforma para melhorar a qualidade dos conteúdos”, disse Kaplan.
A Meta, que anunciou que seu programa de notas será similar ao do X, considera o sistema menos parcial do que o fact-checking.
Quais são os riscos?
O Facebook possui um programa de checagem de fatos em mais de 26 idiomas que remunera mais de 80 organizações de mídia em todo o mundo, incluindo a AFP, para usar suas verificações de fatos em suas plataformas, porquê WhatsApp e Instagram.
Com as avaliações, “o problema é que a verificação depende da povaréu”, aponta Christine Balagué, professora do Instituto Mines-Télécom e fundadora da rede de pesquisa “Good in Tech”, que trabalha com desinformação.
“A povaréu pode proferir o manifesto, mas também pode possuir pessoas mal-intencionadas que estão ali para disseminar informações erradas”, alerta.
“Essa decisão afetará os usuários que buscam informações precisas e confiáveis”, comentou no X Angie Drobnic Holan, diretora americana da Rede Internacional de Fact-Checking (IFCN, na {sigla} em inglês).
“Os checadores nunca demonstraram parcialidade em seu trabalho, e essas críticas vêm de pessoas que acreditam que podem exagerar os fatos e mentir sem serem refutadas ou contraditadas”, acrescentou, destacando o clima de pressão política nos Estados Unidos às vésperas da posse do presidente eleito Donald Trump.
Bill Adair, cofundador da IFCN, afirmou que é “preocupante ver Mark Zuckerberg repercutir os ataques políticos aos checadores, já que ele sabe que os participantes de seu programa assinaram uma epístola de princípios que exige transparência e imparcialidade”.
Trump, que foi principalmente crítico em relação à Meta e ao seu CEO nos últimos anos, acusando a empresa de viés progressista, declarou que “provavelmente” influenciou a decisão.
As avaliações são eficazes contra a desinformação?
Pesquisadores mostraram que as notas de contexto “reduzem a disseminação de desinformação em tapume de 20%” no X, disse Balagué.
E, embora esse sistema “não seja 100% confiável”, Kaplan acredita que as notas de contexto sejam eficazes.
Ele considera que permitem processar um maior volume de informações do que o fact-checking, que é “complicado de utilizar”. Também destaca o funcionamento “democrático”, que permite “ter e confrontar diferentes pontos de vista”.
O X, no entanto, é frequentemente denunciado de permitir a espalhamento de informações falsas desde que Musk reduziu drasticamente as equipes de moderação.
Mas, segundo o profissional, isso se deve principalmente ao vestimenta de que “o X incentiva o radicalismo”, tornando os conteúdos falsos mais visíveis do que em outras plataformas.
A Meta informou que os usuários poderão inaugurar a se inscrever a partir de segunda-feira para grafar notas logo que o programa for lançado, mas não forneceu detalhes sobre os critérios de participação.
A empresa também anunciou que dará aos usuários mais controle sobre a quantidade de teor político que desejam ver no Facebook, Instagram ou Threads.
Resta saber se esse sistema aumentará a disseminação de informações falsas. De conformidade com Kaplan, a Meta não tem necessariamente interesse em realçar conteúdos controversos, pois isso poderia desgostar os anunciantes.