X permitirá que bots de ia verifiquem fatos em publicações

X permitirá que bots de IA verifiquem fatos em publicações – 08/07/2025 – Tec

Tecnologia

A empresa de mídia social que foi pioneira em permitir que usuários verificassem os fatos das publicações uns dos outros está introduzindo uma novidade abordagem: permitir que bots de perceptibilidade sintético verifiquem as publicações dos usuários.

O X (ex-Twitter) de Elon Musk disse nesta semana que começará a permitir que desenvolvedores criem agentes de IA que possam fazer checagens no programa notas da comunidade.

Mas não se preocupe, afirmou Keith Coleman, vice-presidente de resultado do X: Os humanos ainda estarão no comando. E alguns especialistas em desinformação dizem que a teoria não é tão fantástica quanto pode parecer —embora tenham algumas preocupações.

O X espera que a medida ajude a apressar e expandir um programa que se tornou um protótipo para a indústria de mídia social.

Iniciado porquê um projeto-piloto chamado Birdwatch no Twitter antes de Musk comprar a empresa em 2022, as notas da comunidade permitem que usuários voluntários proponham “notas” adicionando contexto ou correções a publicações populares na plataforma. Outros usuários logo avaliam a utilidade e credibilidade das notas propostas. Se uma nota proposta receber avaliações positivas de usuários suficientes —particularmente daqueles que discordaram entre si em avaliações anteriores— ela se torna pública no X para todos verem, aparecendo logo aquém da publicação nos feeds dos usuários.

Musk rapidamente se apegou à teoria porquê uma escolha ao que ele via porquê o viés liberal das organizações profissionais de verificação de fatos. A teoria desde logo foi copiada por outras redes sociais importantes, incluindo Facebook, YouTube e TikTok. Para executivos de tecnologia acostumados a serem criticados por políticos por permitirem a disseminação de mentiras sem controle ou por censurarem erroneamente verdades difíceis, a teoria de delegar a verificação de fatos aos seus usuários tinha um apelo óbvio.

O sistema tem suas virtudes e deficiências.

As notas que são mostradas no X geralmente consideradas úteis pelos usuários. E pesquisas descobriram que elas tendem a retardar a disseminação de publicações que recebem as notas. Mas elas dificilmente curaram o publicado problema de desinformação do site.

Isso ocorre em secção porque análises do The Washington Post e outros descobriram que relativamente poucas notas atingem o supino padrão para aprovação. E muitas vezes, quando o fazem, a falsidade ofensiva já se espalhou por toda secção.

É aí que a IA poderia ser útil, afirmou Coleman.

Coleman disse ao The Washington Post que espera que permitir que desenvolvedores programem agentes de IA para propor notas resulte em notas escritas mais rapidamente e aplicadas a mais publicações em todo o site.

Isso pode parecer uma receita para o caos. Os modelos de IA são conhecidos por fabricar falsidades —uma propriedade problemática para um verificador de fatos. E o próprio protótipo de IA do X, Grok, teve alguns erros bastante espetaculares.

Mas o Grok não estará escrevendo notas da comunidade, pelo menos por enquanto. Em vez disso, desenvolvedores humanos, incluindo pesquisadores de universidades, registrarão seus próprios bots de IA específicos para o programa.

Eles primeiro terão que passar por alguns testes para lucrar elegibilidade. Uma vez que o façam, as notas que propuserem enfrentarão o mesmo processo rigoroso de aprovação que as notas escritas por humanos antes que possam ser mostradas no site. Elas também serão rotuladas porquê geradas por IA. Uma vez que os colaboradores humanos do programa, os bots de IA receberão pontuações de credibilidade com base em porquê suas notas são avaliadas.

“Muito importante, as IAs não avaliam notas”, afirmou Coleman.

Manter os humanos no comando do processo de avaliação é crucial, acrescentou, porque os grandes modelos de linguagem “cometem erros, alucinam coisas, podem ser tendenciosos. Todos estão cientes desses problemas”.

Ainda assim, Coleman acredita que um bot de IA muito projetado tem o potencial de utilizar fatos estabelecidos a pelo menos algumas categorias de publicações obviamente falsas ou enganosas mais rapidamente do que qualquer verificador de fatos humano poderia.

“Eles são bons em revisar muito teor, vasculhar a web, procurar recursos”, afirmou. “É muito plausível que eles possam ser bons em expressar: ‘Ei, levante vídeo existe desde 2013’ ou ‘Houve 10 milénio notas mostradas sobre esta [afirmação] no pretérito'”.

O X fez parceria com pesquisadores do MIT, da Universidade de Washington, Harvard e Stanford em um cláusula acadêmico preparatório explicando porquê o sistema poderia funcionar. O cláusula também identifica vários “riscos e desafios”, incluindo o potencial de bots de IA escreverem “notas persuasivas, mas imprecisas” ou sobrecarregarem os avaliadores humanos.

Alguns especialistas dizem que a teoria tem potencial, mas temem que possa dar incorrecto.

“Isso é potencialmente interessante se eles conseguirem encontrar uma maneira de evitar inundações de spam”, disse Renee DiResta, professora da Escola de Políticas Públicas McCourt da Universidade de Georgetown, em uma publicação no Threads.

Ela apontou para pesquisas que descobriram que modelos de IA principalmente treinados se destacam na produção de linguagem neutra em questões controversas, o que pode ajudar pessoas de diferentes ideologias a encontrar um terreno geral. Essa linguagem neutra é fundamental para que as notas da comunidade obtenham aprovação.

Alexios Mantzarlis, diretor da Iniciativa de Segurança, Crédito e Proteção da Cornell Tech, disse que a IA poderia ajudar com um dos maiores desafios das notas da comunidade: aplicá-las a todas as variantes de uma determinada asseveração falsa que esteja circulando em um determinado momento.

Ele observou que o colaborador mais prolífico da notas da comunidade já usa automação para enviar notas sinalizando golpes de criptomoedas, porquê Mantzarlis relatou para o Indicator no mês pretérito. Esse colaborador, uma empresa de antivírus, enviou 52 milénio notas, com mais de 1.400 classificadas porquê “úteis” e mostradas publicamente no X.

Ainda assim, Mantzarlis apontou que acredita que a introdução da IA é um mau sinal para o projeto a longo prazo.

Um problema, em suas palavras: “Quem vai determinar todas essas notas?” Usar bots de IA para propor notas pode não apressar muito as coisas se o X estiver contando com o mesmo número de voluntários humanos para aprová-las.

É por isso que ele acredita que o X eventualmente recorrerá à IA para determinar notas também. E se isso suceder, disse Mantzarlis, um sistema talhado a democratizar o processo de verificação de fatos poderia se transformar em um ciclo de feedback de IA.

“Isso é contrário à missão e propósito originais do projeto, que era trazer humanos reais, usuários comuns para levante espaço de moderação”, alertou.

Folha

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *