Quando uma farsa sobre Donald Trump viralizou no funeral do papa Francisco, fui às redes sociais tentar esclarecer a situação. Sou voluntário das notas da comunidade, um programa que Mark Zuckerberg anunciou em janeiro que substitui checadores de fatos por usuários para combater falsidades no Facebook, Instagram e Threads.
Elaborei uma nota desmentindo imagens que supostamente mostravam Trump dormindo durante a cerimônia. Citei filmagens da transmissão ao vivo e marcação de horário com data e hora. Incluí links para pesquisas do Snopes, serviço de checagem de fatos.
Zero disso importou. Minha nota da comunidade nunca foi adicionada a uma publicação porque não houve votos suficientes de outros usuários considerando-a “útil”.
Durante quatro meses, elaborei 65 notas desmentindo teorias da conspiração sobre temas que vão de acidentes aéreos ao sorvete Ben & Jerry’s. Tentei sinalizar vídeos falsos gerados por perceptibilidade sintético, ameaças virais falsas de segurança e relatórios falsos sobre uma parceria do ICE com o DoorDash.
Exclusivamente três delas foram publicadas, todas relacionadas às inundações de julho no Texas. Isso representa uma taxa de sucesso subalterno a 5%. Minhas notas propostas eram sobre tópicos que outros veículos de notícias —incluindo Snopes, NewsGuard e Bloomberg— decidiram que valiam a pena publicar suas próprias checagens de fatos.
Zuckerberg demitiu checadores de fatos profissionais, deixando os usuários para combater falsidades com notas da comunidade. Porquê principal risco de resguardo contra boatos e mentirosos que querem atenção, as notas da comunidade parecem —até agora— estar longe de satisfazer a tarefa.
Feeds cheios de informações imprecisas importam para os 54% dos adultos americanos que, segundo o Pew Research Center, obtêm notícias das redes sociais.
A decisão de Zuckerberg de desobrigar checadores de fatos foi amplamente criticada uma vez que uma tentativa covarde de aprazer ao presidente Donald Trump. Ele disse que a Meta estava adotando o sistema colaborativo de notas da comunidade usado pelo X (ex-Twitter) de Elon Musk porque os usuários seriam mais confiáveis e menos tendenciosos que os checadores de fatos. Antes que as notas sejam publicadas nas postagens, usuários suficientes precisam concordar que são úteis. Mas o consenso acaba sendo mais complicado do que parece.
A Meta diz que meu teste não pode ser usado para estimar seu programa de notas, que está público nos Estados Unidos há mais de quatro meses. “Notas da Comunidade é um resultado totalmente novo que ainda está na tempo de teste e aprendizagem, e leva tempo para edificar uma comunidade robusta de colaboradores. Embora haja notas sendo publicadas continuamente no Threads, Instagram e Facebook, nem toda nota será amplamente classificada uma vez que útil pela comunidade —mesmo que essas notas tenham sido escritas por um colunista do Washington Post”, disse a porta-voz Erica Sackin.
A Meta se recusou a responder minhas perguntas sobre quantas notas publicou, quantos participantes estão no programa ou se há evidências de que está causando impacto, apesar de prometer ser transparente sobre o programa.
Alexios Mantzarlis, diretor da Iniciativa de Segurança, Crédito e Proteção da Cornell Tech, publicou outra avaliação independente das notas da comunidade em junho e disse que elas “ainda não estavam prontas para uso”. Ele descobriu que exclusivamente algumas das notas propostas forneciam contexto realmente valioso e algumas eram imprecisas.
“É preocupante que, quatro meses depois, eles não tenham compartilhado nenhuma atualização”, disse Mantzarlis.
Isso importa porque os programas de notas da comunidade estão se espalhando além do X e Meta uma vez que uma forma de as grandes empresas de tecnologia terceirizarem o trabalho politicamente difícil de moderar teor. O YouTube disse que estava testando uma versão no ano pretérito. E o TikTok disse em abril que estava testando um sistema chamado Footnotes.
Se as notas da comunidade estão se tornando um padrão para combater falsidades, precisamos ser honestos sobre o que elas podem e não podem fazer.
Me voluntariei para participar das notas comunitárias do Meta e inicialmente fui aceito no programa no Threads, e eventualmente também no Instagram e Facebook.
Os voluntários podem tocar em alguns botões em qualquer postagem de um usuário dos EUA e sugerir uma nota completa com texto e um link uma vez que prova. Deliberadamente elaborei notas que atravessavam o espectro político. Por exemplo, sugeri notas sobre uma imagem fabricada de Pam Bondi vista mais de meio milhão de vezes, muito uma vez que uma alegado falsa sobre a riqueza de Alexandria Ocasio-Cortez vista um quarto de milhão de vezes.
Também votei em dezenas de notas elaboradas por outros, classificando-as uma vez que “úteis” ou “não úteis”.
As notas da comunidade têm vantagens. Vi usuários tentando abordar um conjunto mais espaçoso de tópicos do que um checador de fatos tradicional poderia ser técnico. Alguns estão tentando combater mentiras em linguagem simples e fácil de entender.
Mas descobri problemas rapidamente. Às vezes, as postagens que identifiquei para notas não eram aceitas porque eram escritas por contas fora dos EUA (que são excluídas do programa inicial da Meta) ou tinham outros problemas técnicos. Vi notas sugeridas por outros que eram de baixa qualidade, algumas com mais opiniões do que fatos, ou que tinham uma vez que natividade “pesquise no Google”.
O maior duelo tem sido conseguir impacto. Comecei a contribuir em abril, e até o início de julho zero do que eu havia proposto tinha sido publicado. Exclusivamente uma nota que eu havia classificado uma vez que útil, escrita por outra pessoa, havia sido publicada.
A Meta diz que não está selecionando quais notas são publicadas. Usa um “algoritmo de ponte” para tentar ordenar quais notas são realmente úteis, em oposição a exclusivamente populares. Esta fórmula requer que colaboradores que discordaram entre si em notas anteriores concordem que uma novidade nota é útil.
Em teoria, isso é uma coisa boa. Você não quer publicar notas que contenham falsidades ou sejam simplesmente ataques a pessoas ou ideias específicas.
No entanto, o consenso é difícil de encontrar. Notas que não consegui publicar incluíam fatos que não deveriam estar em debate, incluindo a identificação de deepfakes de IA. Nascente sistema também não evita problemas uma vez que, por exemplo, mentiras em notícias urgentes e conspirações que se disseminam rapidamente. (A Meta ainda remove algumas falsidades diretamente, mas só em casos muito específicos quando podem levar a danos físicos ou interferir nas eleições.)
A Meta diz que está usando o mesmo algoritmo que o X. “É um sistema muito, muito conservador”, disse Kolina Koltai, que ajudou a desenvolver as notas da comunidade no Twitter, agora chamado X. O algoritmo é melhor em evitar coisas ruins do que prometer que as coisas boas sejam realmente publicadas, diz.
Koltai, que agora é jornalista do Bellingcat, diz que sua própria taxa de publicação pessoal no X é de murado de 30% —baixa, mas ainda várias vezes maior que a minha nas redes sociais da Meta.
É provável que minhas notas fossem muito unilaterais? Compartilhei o que estava propondo com Mantzarlis, que também foi o diretor fundador da Rede Internacional de Checadores de Fatos. Ele disse que elas usavam “linguagem não polarizadora, contexto simples e fontes de subida qualidade”.
É provável que a Meta não tenha conseguido recrutar uma variedade ampla o suficiente de usuários para atender aos requisitos do “algoritmo de ponte”. Também pode ser que os voluntários das notas da comunidade que a Meta possui simplesmente não estejam muito engajados. Continuei contribuindo por meses, mesmo que zero do que eu escrevesse fosse publicado. Não consigo imaginar que a maioria dos usuários não remunerados se importaria em continuar.
Alguns desses fatores podem melhorar à medida que o programa da Meta amadurece. Mas uma vez que Zuckerberg já demitiu os checadores de fatos profissionais, o sistema de notas da comunidade não é exclusivamente um teste —é nossa atual principal risco de resguardo.
COMO AS NOTAS DA COMUNIDADE PODERIAM MELHORAR
Para os usuários, é uma boa teoria substanciar nossas próprias defesas contra mentiras nas redes sociais.
Mas nossa melhor esperança é que as equipes dentro da Meta que se preocupam com a verdade possam desenvolver as notas da comunidade para torná-las mais eficazes.
Poderia inaugurar permitindo que as pessoas elaborassem notas em postagens escritas por contas estrangeiras. Poderia desenvolver um sistema de triagem para colocar notas sobre certos tópicos ou com verosimilhança de ocasionar mais danos em posição mais subida na fileira. Também poderia melhorar o engajamento dando aos colaboradores influência —talvez um emblema?— por envios repetidos.
Ainda assim, a verdade é que voluntários selecionados aleatoriamente simplesmente não podem fazer esse trabalho sozinhos.
O Twitter originalmente lançou as notas da comunidade junto com checadores de fatos profissionais. “Nunca, nunca foi para ser a única coisa”, diz Koltai.
Musk também acabou com o programa pago de checagem de fatos do X, e as notas da comunidade têm lutado para seguir a vaga de falsidades. Uma estudo do ano pretérito antes da eleição presidencial descobriu que a maioria das notas precisas propostas pelos usuários do X em postagens políticas nunca foram mostradas ao público.
Os checadores de fatos podem cometer erros, uma vez que Zuckerberg disse, mas também podem checar uns aos outros uma vez que secção de uma comunidade.
A Meta poderia dar aos especialistas perfis especializados dentro das notas comunitárias depois que eles passassem por qualquer tipo de credenciamento —e talvez também permitir que fossem pagos pelo seu trabalho. “Profissionais e a poviléu não são contraditórios, podem ser complementares”, diz Mantzarlis.
