Com a proliferação de ferramentas de lucidez sintético capazes de gerar vídeos e imagens falsas cada vez mais realistas, as empresas de tecnologia criaram um projecto para evitar a confusão em tamanho.
Companhias porquê a OpenAI, criadora do ChatGPT, prometeram inserir em cada vídeo falso um marcador à prova de adulteração para sinalizar que foi gerado por IA. Plataformas porquê Facebook e TikTok afirmaram que exibiriam esses marcadores aos usuários.
Mas testes conduzidos pelo Washington Post em oito grandes plataformas mostraram que somente uma delas acrescentou um aviso a um vídeo criado por IA. Essa identificação, feita pelo YouTube, do Google, estava escondida na descrição do vídeo, visível somente para quem clicasse nela.
Aliás, todas as plataformas testadas removeram do vídeo o marcador do dedo que indicava ser um teor falso, impedindo qualquer verificação de sua proveniência.
Os vídeos gerados por IA têm hoje um poder de manipulação sem precedentes, graças a avanços técnicos que tornam os falsos praticamente indistinguíveis dos reais e à ampla disponibilidade da tecnologia.
Mesmo assim, nenhuma das plataformas testadas seguiu integralmente o padrão de marcação de teor com IA que as próprias empresas de tecnologia vêm promovendo há anos.
Avanços recentes na IA deixaram o público do dedo “incapaz de mourejar com a graduação e o realismo” do teor falso, afirmou Arosha Bandara, pesquisador da Open University, no Reino Unificado, que estuda a rotulagem de materiais criados por IA. “Um sistema robusto de divulgação é forçoso”, acrescentou.
O Post testou as plataformas usando um vídeo criado com o Sora, o novo e poderoso aplicativo de geração de vídeos da OpenAI.
Christa Muldoon, porta-voz do Google, afirmou que o padrão Content Credentials, usado para marcar arquivos de mídia e testado pelo jornal, é somente uma secção da estratégia da empresa para prometer que as pessoas tenham aproximação a informações sobre porquê o teor foi produzido. “Reconhecemos que a adoção levará tempo, e esse trabalho está em curso”, disse.
Meta, OpenAI, TikTok, Snapchat e X (macróbio Twitter) não responderam aos pedidos de observação. LinkedIn e Pinterest recusaram comentar. O Post mantém uma parceria de teor com a OpenAI.
A subida da IA aumentou as preocupações com conteúdos manipulados ou enganosos. Em 2021, seis empresas —entre elas Microsoft, Adobe e BBC— uniram-se para desenvolver o Content Credentials, um padrão técnico que acrescenta metadados a arquivos de mídia, revelando porquê o teor foi produzido.
Arquivos marcados com Content Credentials contêm metadados invioláveis, com detalhes porquê o padrão da câmera usada, o software de edição ou o sistema de IA que gerou o material. Mas o Content Credentials é um sistema voluntário —e, se as plataformas não o implementam, ele se torna praticamente inútil.
Para verificar quais redes sociais aplicam o padrão, o Post gerou um vídeo com o Sora e confirmou que ele incluía os dados de Content Credentials, mencionando o software e as frases “Criado com IA generativa” e “Emitido pela OpenAI”. O mesmo vídeo foi publicado em oito plataformas diferentes, usando as configurações padrão.
Nenhuma das redes manteve os metadados do Content Credentials nem permitiu que usuários tivessem aproximação a eles. Unicamente o YouTube mostrou alguma indicação de que o vídeo não era real —um aviso na descrição do vídeo, visível somente para quem clicasse para expandi-la. O texto dizia “Teor diferente ou sintético” e não mencionava IA.
Google (dona do YouTube), Meta (controladora do Facebook e do Instagram) e Microsoft (proprietária do LinkedIn e da OpenAI) fazem secção do comitê diretivo da coalizão que mantém o Content Credentials. TikTok é membro regular, e o macróbio Twitter também era até ser comprado por Elon Musk e rebatizado porquê X.
TikTok e LinkedIn disseram no ano pretérito que implementariam o padrão para rotular vídeos gerados por IA. A Meta anunciou que usaria o Content Credentials para identificar imagens criadas por IA, e o Pinterest fez promessa semelhante em abril deste ano —mas nenhuma das duas se comprometeu a aplicá-lo em vídeos. O Snapchat, por sua vez, não parece ter relação com o padrão.
Andrew Jenks, presidente-executivo da coalizão, afirmou em nota que os usuários precisam ter aproximação a informações sobre “porquê o teor foi produzido, incluindo quais ferramentas foram usadas”. Segundo ele, o setor “deve continuar aprimorando seus processos para prometer que esse nível de transparência seja provável e eficiente”.
Google, OpenAI e outras empresas de IA assumiram, ainda durante o governo Biden, o compromisso de desenvolver sistemas porquê o Content Credentials para “prometer que os usuários saibam quando um teor foi gerado por IA”.
O Sora, lançado pela OpenAI neste mês, representa um grande teste para o potencial criativo e mercantil dos vídeos realistas produzidos por IA —mas também para seus riscos. O aplicativo é capaz de gerar pequenos clipes que inserem o rosto de uma pessoa real em praticamente qualquer cenário. Usuários podem autorizar que suas imagens sejam utilizadas por outros em suas criações.
Em uma página intitulada “Lançando o Sora de forma responsável”, a OpenAI afirma que adiciona metadados de Content Credentials a todos os vídeos, chamando o padrão de “assinatura de referência do setor”. Os testes do Post mostram, porém, que a indústria não está usando esse padrão de forma consistente.
A OpenAI cita outras medidas de mitigação, mas todas têm limitações.
A empresa adiciona uma marca d’chuva transparente a todos os vídeos criados com o Sora, mas admite que pode removê-la no porvir. Já há serviços que retiram essa marca online, e uma versão do Sora voltada a desenvolvedores de software não inclui nem a marca d’chuva nem os metadados de Content Credentials. Usuários do projecto pago podem encolher alguns vídeos gerados sem qualquer marca, segundo a documentação da própria empresa.
A OpenAI também afirma inserir marcadores invisíveis de autenticidade nos vídeos e ter criado um sistema que os detecta “com subida precisão”, mas o recurso é de uso interno. O projeto SynthID, do Google, faz um tanto semelhante, mas também não está disponível ao público.
Outras empresas vendem ferramentas que tentam detectar manipulações analisando padrões em imagens ou vídeos, mas esses sistemas têm se mostrado pouco confiáveis —e ainda não foram amplamente adotados pelas redes sociais.
Enquanto isso, a indústria tecnológica continua lançando produtos que permitem a qualquer pessoa produzir vídeos cada vez mais convincentes em questão de segundos.
