Conspiracionistas que debateram com um chatbot de IA (lucidez sintético) tornaram-se mais dispostos a comportar dúvidas sobre suas crenças, de consonância com uma pesquisa que oferece insights sobre uma vez que mourejar com a desinformação.
A lhaneza mental se estendeu até mesmo aos devotos mais teimosos e persistiu muito tempo depois o diálogo com a máquina, descobriram os cientistas.
A pesquisa contraria a teoria de que é praticamente impossível mudar a mente de indivíduos que mergulharam em buracos de ideias populares sem evidências.
Os resultados são impressionantes porque sugerem um potencial positivo para modelos de IA no combate à desinformação —apesar de suas próprias vulnerabilidades a “alucinações” que às vezes os fazem espalhar informações falsas.
O trabalho “pinta um quadro mais otimista da mente humana do que muitos poderiam esperar” e mostra que “o raciocínio e as evidências não estão mortos”, disse David Rand, um dos pesquisadores do trabalho publicado na Science nesta quinta-feira (12).
“Mesmo muitos conspiracionistas responderão a fatos e evidências precisas —você só precisa abordar diretamente suas crenças e preocupações específicas”, disse Rand, professor da Sloan School of Management do Instituto de Tecnologia de Massachusetts.
“Embora haja preocupações legítimas generalizadas sobre o poder da IA generativa para espalhar desinformação, nosso cláusula mostra uma vez que ela também pode ser secção da solução, sendo uma educadora altamente eficiente”, acrescentou.
Os pesquisadores examinaram se grandes modelos de linguagem de IA, uma vez que o GPT-4 Turbo da OpenAI, poderiam usar sua capacidade de acessar e somar informações para abordar crenças conspiratórias persistentes. Isso incluiu teorias de que os ataques terroristas de 11 de setembro de 2001 foram encenados, a eleição presidencial dos Estados Unidos de 2020 foi fraudulenta e a pandemia de covid-19 foi orquestrada.
Quase 2.200 participantes compartilharam ideias conspiratórias com o dispositivo, que gerou evidências para contrariar as alegações. Esses diálogos reduziram a crença autoavaliada da pessoa em sua teoria escolhida em uma média de 20% por pelo menos dois meses depois conversar com o bot, disseram os pesquisadores.
Um verificador de fatos profissional avaliou uma exemplar da produção do padrão para precisão. A verificação encontrou 99,2% das alegações do bot uma vez que verdadeiras e 0,8% uma vez que enganosas, disseram os cientistas.
A abordagem personalizada de perguntas e respostas do estudo é uma resposta à aparente ineficácia de muitas estratégias existentes para combater a desinformação.
Outra dificuldade dos esforços generalizados para direcionar o pensamento conspiratório é que conspirações reais acontecem enquanto, em outros casos, narrativas céticas podem ser altamente exageradas, mas baseadas em um núcleo de verdade.
Uma teoria sobre por que a interação com o chatbot parece funcionar muito é que ele tem chegada momentâneo a qualquer tipo de informação, de uma maneira que um respondente humano não tem.
A máquina também lidou com seus interlocutores humanos em termos educados e empáticos, em contraste com o desprezo às vezes esvaziado sobre quem acredita em teorias conspiratórias na vida real.
Outras pesquisas, no entanto, sugeriram que o modo de abordagem da máquina provavelmente não era um fator importante, disse Rand. Ele e seus colegas fizeram um experimento de comitiva no qual a IA foi instruída a dar correções factuais “sem as gentilezas” e funcionou também muito, acrescentou.
O “tamanho, robustez e persistência da redução nas crenças conspiratórias” do estudo sugeriram que uma “mediação escalável para recalibrar crenças desinformadas pode estar ao alcance”, de consonância com um observação acompanhante também publicado na Science.
Possíveis limitações para isso, no entanto, incluíam dificuldades em responder a novas teorias da conspiração e em persuadir pessoas com baixa crédito em instituições científicas a interagir com o bot, disseram Bence Grão da Universidade de Tilburg, na Holanda, e Jean-François Bonnefon da Escola de Economia de Toulouse, que coautoraram o cláusula secundário.
“A técnica de diálogo com IA é tão poderosa porque automatiza a geração de contra-evidências específicas e detalhadas para os argumentos intrincados dos crentes em conspirações e, portanto, poderia ser implantada para fornecer informações corretivas precisas em graduação”, disseram Grão e Bonnefon, que não participaram da pesquisa.
“Uma limitação importante para realizar esse potencial reside na entrega”, acrescentaram. “Ou seja, uma vez que fazer com que indivíduos com crenças conspiratórias arraigadas se envolvam com um programa de IA devidamente treinado desde o início.”