Em outubro, circulou no TikTok um vídeo que parecia mostrar uma mulher sendo entrevistada por uma repórter de TV sobre o programa de vale-alimentação dos Estados Unidos.
As mulheres não eram reais. A conversa nunca aconteceu.
O vídeo foi gerado por IA (perceptibilidade sintético).
Ainda assim, muitos usuários acreditaram que se tratava de uma entrevista verdadeira sobre a troca de cupons de sustento por quantia vivo, o que seria violação.
Nos comentários, muitos reagiram porquê se a cena fosse real. Apesar de alguns sinais discretos de que se tratava de uma simulação, centenas de pessoas chamaram a mulher de criminosa —algumas com racismo explícito—, enquanto outras criticaram programas de assistência governamental, num momento em que avançava um debate pátrio sobre os cortes planejados pelo presidente Donald Trump no programa.
Vídeos porquê essa falsa entrevista, criada com o Sora, novo aplicativo da OpenAI, mostram porquê opiniões públicas podem ser facilmente manipuladas por ferramentas capazes de produzir realidades alternativas a partir de comandos simples.
Nos dois meses desde o lançamento do Sora, vídeos enganosos se multiplicaram no TikTok, X, YouTube, Facebook e Instagram, segundo especialistas que monitoram esse tipo de teor. A enxurrada acendeu alertas sobre uma novidade geração de desinformação e farsas digitais.
Embora as principais plataformas tenham políticas que exigem a divulgação do uso de IA e proíbam conteúdos feitos para enganar, essas regras se mostraram claramente insuficientes diante do salto tecnológico representado pelas ferramentas da OpenAI.
Se muitos vídeos são exclusivamente memes bobos ou imagens fofas, embora falsas, de bebês e animais, outros buscam promover o tipo de ressentimento que costuma caracterizar debates políticos online. Eles já apareceram em operações de influência estrangeira, porquê a campanha contínua da Rússia para prejudicar a imagem da Ucrânia.
Pesquisadores que acompanham usos enganosos afirmam que agora cabe às plataformas fazer mais para prometer que o público saiba o que é real e o que não é.
“Eles poderiam fazer melhor na moderação de teor com desinformação? Sim, claramente não estão fazendo”, disse Sam Gregory, diretor-executivo da Witness, organização de direitos humanos focada nos riscos da tecnologia. “Poderiam fazer melhor em buscar proativamente teor gerado por IA e rotulá-lo? A resposta também é sim.”
O vídeo sobre o vale-alimentação foi um entre vários que surgiram enquanto o impasse sobre o orçamento suspendia atividades do governo dos EUA, afetando beneficiários do programa de assistência nutrir, que lutavam para nutrir suas famílias.
A Fox News caiu em uma embuste semelhante, tratando outro vídeo falso porquê exemplo de indignação pública com o suposto agravo do programa, em uma reportagem que depois foi retirada do ar. Um porta-voz da emissora confirmou a remoção, mas não explicou o motivo.
Os vídeos enganosos têm sido usados para zombar não só de pessoas pobres, mas também de Trump. Um vídeo no TikTok mostrava a Morada Branca com um áudio que soava porquê Trump repreendendo seu gabinete pela divulgação de documentos sobre Jeffrey Epstein. Segundo a NewsGuard, o vídeo, sem identificação de IA, foi visto por mais de 3 milhões de pessoas em poucos dias.
Até agora, as plataformas têm dependido em grande secção da boa vontade dos criadores para propalar quando o teor não é real, mas eles raramente o fazem. Embora plataformas porquê YouTube e TikTok tenham meios de detectar quando um vídeo foi feito com IA, nem sempre elas alertam os usuários imediatamente.
“Eles deveriam estar preparados”, disse Nabiha Syed, diretora-executiva da Mozilla Foundation, organização de segurança do dedo que mantém o navegador Firefox, referindo-se às redes sociais.
As empresas por trás das ferramentas de IA dizem tentar deixar simples o que é teor gerado por computador. Sora e o Veo, instrumento concorrente do Google, inserem marcas-d’chuva visíveis nos vídeos. O Sora, por exemplo, exibe o nome do app no quina. As duas empresas também incluem metadados invisíveis, legíveis por computador, que identificam a origem dos vídeos.
A teoria é informar o público de que o teor não é real e dar às plataformas sinais digitais para detectá-lo involuntariamente.
Algumas plataformas já usam essa tecnologia. O TikTok, aparentemente em resposta à preocupação com a verdade dos vídeos, anunciou na semana passada regras mais rígidas para a divulgação do uso de IA. Também prometeu ferramentas para que usuários escolham quanto teor feito por IA —em oposição ao verdadeiro— querem ver.
O YouTube usa a marca-d’chuva invisível do Sora para juntar involuntariamente um aviso de que o vídeo foi “desfigurado ou é criado por IA”.
“Os espectadores querem, cada vez mais, transparência sobre o teor”, disse Jack Malon, porta-voz do YouTube.
Mas os rótulos às vezes aparecem só depois que milhares ou milhões já viram o vídeo. Em alguns casos, não aparecem.
Pessoas mal-intencionadas já descobriram porquê usurpar as regras: alguns simplesmente ignoram a exigência de identificação; outros editam o vídeo para remover marcas visíveis. O Times encontrou dezenas de vídeos do Sora no YouTube sem rótulo automático.
Várias empresas surgiram oferecendo remover logos e marcas-d’chuva, e editar ou compartilhar vídeos pode completar eliminando os metadados que indicavam sua origem.
Mesmo quando o logo é visível, muitos usuários podem não notá-lo enquanto navegam rapidamente.
Segundo estudo do New York Times, que usou ferramentas de IA para qualificar comentários, quase dois terços dos mais de 3.000 comentários no vídeo do TikTok sobre o vale-alimentação reagiam porquê se ele fosse real.
Em enviado, a OpenAI afirmou que proíbe usos do Sora para fins enganosos ou que induzam ao erro e que toma medidas contra quem viola suas políticas. A empresa disse que seu aplicativo é exclusivamente um entre dezenas de ferramentas semelhantes capazes de produzir vídeos cada vez mais realistas, muitas das quais não empregam qualquer tipo de proteção ou restrição de uso.
“Vídeos gerados por IA são criados e compartilhados por meio de muitas ferramentas diferentes, portanto, mourejar com teor enganoso exige um esforço de todo o ecossistema”, disse a empresa.
Um porta-voz da Meta, dona do Facebook e do Instagram, disse que nem sempre é provável rotular todos os vídeos gerados por IA, principalmente porque a tecnologia evolui rapidamente. A empresa, segundo o porta-voz, trabalha para melhorar os sistemas de rotulagem de teor.
X e TikTok não responderam a pedidos de observação sobre o aumento de vídeos falsos.
Alon Yamin, presidente-executivo da Copyleaks, empresa que detecta teor produzido por IA, afirmou que as plataformas de redes sociais não têm incentivo financeiro para restringir a disseminação desses vídeos enquanto os usuários continuarem a clicar neles.
“No longo prazo, quando 90% do tráfico de teor na sua plataforma for gerado por IA, surgem algumas questões sobre a qualidade da plataforma e do teor”, disse Yamin. “Portanto, talvez a longo prazo haja mais incentivos financeiros para realmente moderar o teor de IA. Mas, no pequeno prazo, isso não é uma grande prioridade.
