Diante da facilidade inédita para se gerar imagens e sons falsos com lucidez sintético, a criadora do ChatGPT, OpenAI, e algumas redes sociais anunciaram medidas para prevenir o uso da tecnologia para manipular as eleições.
Outras empresas de IA, uma vez que Google, Midjourney e Stability AI ainda não apresentaram planos.
O cenário se dá em meio a contexto em que nenhum país tem um busto regulatório em vigência sobre lucidez sintético. Em dezembro, a Europa fechou negócio sobre texto-base de regulação da tecnologia, que ainda precisa de promulgação.
Em 2024, haverá eleições em mais de 50 países, que representam muro de metade da população mundial. Apesar de as medidas também serem válidas para o Brasil, que tem eleições municipais no segundo semestre, de modo universal, elas trazem detalhamentos somente em relação às eleições norte-americanas.
A OpenAI publicou na segunda-feira (15) cláusula sobre o projecto que adotará para diminuir danos. Assim, manteve a estratégia de tentar se antecipar a reguladores abrindo o debate sobre o uso seguro de sua tecnologia.
Redes sociais, por sua vez, criaram algumas regras para que usuários sejam transparentes quanto ao uso deste tipo de tecnologia.
Segundo o cláusula da OpenAI, as iniciativas da empresa durante o processo eleitoral se darão em três pilares: prevenir afronta, promover transparência de que conteúdos são gerados por IA e facilitar o chegada a teor de credibilidade sobre os sistemas de votação.
Em relação à última medida, a OpenAI afirma que trabalha nos EUA com a Associação Pátrio de Secretários de Estado e divulgará o site CanIVote.org —não há menção a parcerias com entidades de outros países. Questionada pela Folha a saudação, a empresa diz que pretende harmonizar os aprendizados durante a campanha americana à verdade de outras regiões –a eleição presidencial nos EUA ocorrerá em novembro e a brasileira em outubro.
A OpenAI afirma que tem salvaguardas para evitar a produção de deepfakes, uma vez que proibir a reprodução de imagens de pessoas reais, o que inclui candidatos. Diz ainda que trabalha para impedir que seus sistemas desrespeitem as normas impostas durante o treinamento do protótipo de IA.
Aliás, depois de disponibilizar a opção de gerar chatbots especializados, os GPTs, para os assinantes da versão paga ChatGPT Plus, a OpenAI também proibiu que desenvolvedores criem chatbots que imitem determinada pessoa. Isso poderia ser útil na hora de imputar discursos falsos a desafetos eleitorais.
O Google, por sua vez, ainda não divulgou planos para mitigar danos causados pelo afronta de IA durante as eleições. A gigante da tecnologia também não respondeu se limita a reprodução da imagem de terceiros, uma vez que faz a OpenAI.
Procurado pela Folha, o Google diz que adotou uma abordagem responsável no desenvolvimento da lucidez sintético, tendo em vista as oportunidades e riscos de qualquer tecnologia emergente. “Nossas políticas proíbem teor e anúncios que confundam os eleitores sobre uma vez que votar ou que estimulem a interferência no processo democrático, incluindo uso de mídia manipulada.”
As outras duas empresas responsáveis por populares modelos de lucidez sintético geradoras de imagem –Midjourney e Stability AI– ainda não divulgaram estratégias que adotarão durante as eleições de 2024.
O Midjourney —utensílio que ficou conhecida com a geração da imagem do papa Francisco com uma jaqueta puffer branca— proíbe em suas normas o uso de sua tecnologia para manipular processos eleitorais, sem especificar uma vez que garante o cumprimento da regra.
A Stability AI, responsável pelo protótipo Stable Diffusion, afirmou em expedido depois reunião com o Senado americano em novembro que as tecnologias, pela legislação americana, são neutras e as pessoas que abusarem dos recursos de IA podem ser acusadas criminalmente de fraude, maledicência e uso não permitido de imagens.
O Stable Diffusion, assim uma vez que outros modelos de IA, tem código desimpedido e pode ser editado para não ter qualquer regra durante o uso.
Midjourney e Stability AI não responderam aos questionamentos da Folha, enviados por email.
Sem uma lei sobre o tema, a questão da lucidez sintético na campanha eleitoral deverá ser abordada em solução do TSE (Tribunal Superior Eleitoral).
Uma minuta elaborada pela vice-presidente da incisão, a ministra Cármen Lúcia, e que ainda deve passar por audiência pública e estudo do plenário, indica que será obrigatório que os usuários informem o uso de lucidez sintético para geração de conteúdos.
À Folha o ministro do TSE Floriano de Azevedo Marques Neto disse que a principal preocupação do tribunal brasiliano é com o falseamento de imagens e vozes de pessoas, nas chamadas deepfakes. “O trajo é que a IA foi pouco presente no pleito de 2022 e quase zero em 2020”, disse.
Redes sociais
Se a OpenAI mira evitar abusos com a produção de deepfakes, empresas de redes sociais estabeleceram algumas regras que têm uma vez que objectivo evitar a circulação sem transparência desse tipo de teor.
A Meta, dona de Facebook, Instagram e WhatsApp, anunciou ainda em 2023 atualizações em sua política de anúncios políticos, também com menções às eleições americanas —uma vez que o ano coincide com o pleito municipal brasiliano, as regras acabam válidas para o Brasil.
Anunciantes terão que vulgarizar o uso de IA em algumas hipóteses, uma vez que quando tenha havido modificação para que uma pessoa real esteja “dizendo ou fazendo alguma coisa que não disse ou fez”. A Meta afirma que faz moderação ativa desses anúncios e que, caso detecte preterição por segmento de anunciante, punirá a conta.
Essas regras, entretanto, não valem para publicações orgânicas, sem pagamento por maior alcance. Aliás, entre os anúncios comuns, para os quais não valem as novas normas de IA, já há casos de uso de deepfake para utilizar golpes nas redes sociais da Meta —Facebook e Instagram—, uma vez que mostrou a Folha.
O TikTok, por sua vez, divulgou em março de 2023 regras para publicação de deepfakes. Os vídeos que usem essa tecnologia precisam ser identificados por um emblema e não podem fazer referência a pessoas que não sejam públicas ou menores de idade.
Aliás, os deepfakes no TikTok não podem servir uma vez que instrumento de campanha política, violar as políticas do aplicativo ou ter intenção de enganar outros usuários.
Procurado pela Folha via email, o X, ex-Twitter, não respondeu às perguntas da reportagem. A rede social, desde que foi comprada por Elon Musk no término de 2022, deixou de ter representação de prensa no Brasil.