Conheça O Novo Checador De Fatos Da Meta: Você

Conheça o novo checador de fatos da Meta: você – 08/01/2025 – Tec

Tecnologia

A Meta gostaria de apresentar seu próximo checador de fatos —aquele que identificará falsidades, escreverá correções convincentes e alertará os outros sobre conteúdos enganosos.

É você.

Mark Zuckerberg, CEO da Meta, anunciou na terça-feira (7) que estava encerrando grande secção dos esforços de moderação da empresa, uma vez que a verificação por terceiros e restrições de teor.

Em vez disso, ele disse que a empresa transferirá as responsabilidades de verificação de fatos para os usuários comuns sob um padrão chamado Community Notes (notas de contexto), que foi popularizado pelo X (idoso Twitter) e permite que os usuários deixem uma checagem de informação ou correção em uma postagem de mídia social.

O proclamação sinaliza o término de uma era na moderação de teor e uma roboração de diretrizes mais flexíveis que até mesmo Zuckerberg reconheceu que aumentariam a quantidade de teor falso e enganoso na maior rede social do mundo.

“Acho que vai ser um fracasso espetacular”, disse Alex Mahadevan, diretor de um programa de alfabetização midiática no Instituto Poynter chamado MediaWise, que estudou o Community Notes no X. “A plataforma agora não tem responsabilidade por realmente zero do que é dito. Eles podem transferir a responsabilidade para os próprios usuários.”

Tal mudança teria sido inimaginável posteriormente as eleições presidenciais de 2016 ou mesmo 2020, quando as empresas de mídia social se viam uma vez que guerreiros relutantes na traço de frente de uma guerra de desinformação. Falsidades generalizadas durante a eleição presidencial de 2016 desencadearam uma reação pública e um debate interno nas empresas de mídia social sobre seu papel na disseminação das chamadas fake news.

As empresas responderam investindo milhões em esforços de moderação de teor, pagando verificadores de fatos terceirizados, criando algoritmos complexos para restringir teor tóxico e lançando uma enxurrada de rótulos de aviso para desacelerar a propagação de falsidades —medidas vistas uma vez que necessárias para restaurar a crédito pública.

Os esforços funcionaram, até claro ponto —rótulos de verificação de fatos foram eficazes em reduzir a crença em falsidades, descobriram os pesquisadores, embora fossem menos eficazes entre os norte-americanos conservadores.

Mas os esforços também transformaram as plataformas —e Zuckerberg em pessoal— em alvos políticos do portanto presidente eleito Donald Trump e seus aliados, que disseram que a moderação de teor era zero menos que exprobação.

Agora, o envolvente político mudou. Com Trump prestes a assumir o controle da Morada Branca e dos órgãos reguladores que supervisionam a Meta, Zuckerberg mudou para reparar seu relacionamento com Trump, jantando em Mar-a-Lago, adicionando um coligado de Trump ao parecer de diretores da Meta e doando US$ 1 milhão para o fundo de inauguração de Trump.

“As eleições recentes também parecem um ponto de inflexão cultural para mais uma vez priorizar a liberdade de sentença”, disse Zuckerberg em um vídeo anunciando as mudanças na moderação.

A aposta de Zuckerberg em usar o Community Notes para substituir profissionais que checam os fatos foi inspirada por um experimento semelhante no X que permitiu a Elon Musk, seu proprietário bilionário, terceirizar a verificação de fatos da empresa para os usuários.

O X agora pede aos usuários comuns que identifiquem falsidades e escrevam correções ou adicionem informações extras às postagens de mídia social. Os detalhes exatos do programa da Meta não são conhecidos, mas no X, as notas são inicialmente visíveis unicamente para usuários que se registram no programa Community Notes. Uma vez que uma nota recebe votos suficientes considerando-a valiosa, ela é anexada à postagem de mídia social para que todos possam ver.

“O sonho de uma plataforma de mídia social é uma moderação completamente automatizada que, primeiro, eles não têm que assumir responsabilidade e, segundo, não têm que remunerar ninguém por isso”, disse Mahadevan. “Logo, o Community Notes é o sonho inteiro dessas pessoas —eles basicamente tentaram fabricar um sistema que automatizaria a verificação de fatos.”

Musk, outro coligado de Trump, foi um dos primeiros defensores do Community Notes. Ele rapidamente elevou o programa posteriormente desonerar a maior secção da equipe de crédito e segurança da empresa.

Estudos mostraram que o Community Notes funciona para dissipar algumas falsidades virais. A abordagem funciona melhor para tópicos sobre os quais há um consenso extenso, descobriram os pesquisadores, uma vez que desinformação sobre vacinas contra a Covid-19.

Nesse caso, as notas “surgiram uma vez que uma solução inovadora, reagindo com informações de saúde precisas e credíveis”, disse John W. Ayers, vice-chefe de inovação na subdivisão de doenças infecciosas e saúde pública global da Escola de Medicina da Universidade da Califórnia, que escreveu um relatório em abril sobre o tema.

Mas os usuários com pontos de vista políticos diferentes precisam concordar em uma verificação de fatos antes que ela seja publicamente anexada a uma postagem, o que significa que postagens enganosas sobre assuntos politicamente divisivos muitas vezes ficam sem verificação.

O MediaWise descobriu que menos de 10% das Community Notes elaboradas por usuários acabaram sendo publicadas em postagens ofensivas. Os números são ainda menores para tópicos sensíveis uma vez que imigração e monstro.

Os pesquisadores descobriram que a maioria das postagens no X recebe a maior secção de seu tráfico nas primeiras horas, mas pode levar dias para que uma Community Note seja aprovada para que todos possam vê-la.

Desde sua estreia em 2021, o programa despertou interesse de outras plataformas. O YouTube anunciou no ano pretérito que estava iniciando um projeto-piloto permitindo que os usuários enviassem notas para comparecer inferior de vídeos enganosos. A utilidade dessas checagens ainda é avaliada por avaliadores terceirizados, disse o YouTube em uma postagem no blog.

As ferramentas de moderação de teor existentes da Meta parecem sobrecarregadas pelo dilúvio de falsidades e teor enganoso, mas as intervenções foram vistas pelos pesquisadores uma vez que bastante eficazes.

Um estudo publicado no ano pretérito na revista Nature Human Behavior mostrou que rótulos de aviso, uma vez que os usados pelo Facebook para alertar os usuários sobre informações falsas, reduziram a crença em falsidades em 28% e reduziram a frequência com que o teor era compartilhado em 25%. Os pesquisadores descobriram que os usuários de direita eram muito mais desconfiados das verificações de fatos, mas que as intervenções ainda eram eficazes em reduzir sua crença em teor falso.

“Todas as pesquisas mostram que quanto mais obstáculos, essencialmente, quanto mais barreiras há em uma plataforma, você tem menos disseminação de informações de baixa qualidade”, avaliou Claire Wardle, professora de notícia na Universidade Cornell.

Os pesquisadores acreditam que a checagem feita pelo usuário é eficiente quando combinada com esforços de moderação de teor internos. Mas a abordagem de não-intervenção da Meta pode se mostrar arriscada.

“A abordagem baseada na comunidade é uma peça do quebra-cabeça”, disse Valerie Wirtschafter, pesquisadora do Brookings Institution que estudou o Community Notes. “Mas não pode ser a única coisa, e certamente não pode ser simplesmente implementada uma vez que uma solução completa e sem ajustes.”

Folha

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *