O deepfaker Bruno Sartori, 34, criado em Unaí (MG), viralizou nas redes sociais em 2019, no início do governo Bolsonaro, ao fabricar um vídeo em que o ex-presidente se transformava na rainha da Inglaterra. A partir daquele momento, os memes entraram em uma novidade era no Brasil, com uma série de vídeos bem-humorados de Sartori.
As produções em que ele se especializou consistem em vídeos manipulados que utilizam perceptibilidade sintético (IA) e alteram o rosto de pessoas de forma praticamente imperceptível.
Um dos primeiros deepfakes a se espalhar, feito pelo diretor Jordan Peele ainda em 2018, simulava falas falsas do ex-presidente americano Barack Obama. O tempo de produção das peças, entretanto, era muito mais lento e podia chegar a 30 dias. Por isso, não era alguma coisa tão disseminado. Hoje, a Sora, o “ChatGPT de vídeo”, é capaz de fabricar instantaneamente material de até um minuto a partir de pedidos feitos em texto.
O progresso veloz da tecnologia pode simbolizar riscos a eleições, à democracia, e até à vida em sociedade.
O #Hashtag conversou com Sartori sobre os recentes avanços na perceptibilidade sintético e os rumos que os deepfakes devem tomar.
Em 2019 você fez alguns deepfakes que viralizaram no Twitter. De lá pra cá, a manipulação e a geração de vídeos tornaram-se mais fáceis, com o progresso da perceptibilidade sintético e de plataformas uma vez que a Sora. Estamos em uma novidade era?
Os códigos responsáveis pela geração de teor sintético avançaram consideravelmente desde o último ano. O salto tecnológico foi significativo e a tendência é de que esses avanços se tornem cada vez mais frequentes. Estamos praticamente ingressando em uma novidade era a cada mês.
Gerar um deepfake hoje pode ser realizado até mesmo com um celular. A qualidade dos deepfakes em vídeo, no entanto, ainda é relativamente baixa se comparada àquela dos produzidos com softwares profissionais. Mas, essa falta de qualidade pode ser benéfica para o uso da internet, uma vez que contribui para expor imperfeições que poderiam revelar a manipulação.
Você acha que as eleições municipais no Brasil e nos EUA deste ano sofrerão grande interferência das deepfakes? As manipulações podem atingir um intensidade incontrolável?
Houve uma massificação da tecnologia. Os códigos ficaram mais ágeis e hoje não é preciso grandes máquinas para fabricar mídia gerada por IA. Esses dois fatores colaboram para que mais pessoas mal-intencionadas possam produzir teor enganoso. Se há mais pessoas criando, sem incerteza o risco para um processo eleitoral aumenta.
Por enquanto, acho que não perdemos o controle, mas as autoridades precisam agir rapidamente e obrigar as redes sociais a sinalizar que aquele teor foi produzido com perceptibilidade sintético para que haja uma efetiva redução de danos.
O colunista Ronaldo Lemos escreveu recentemente na Folha: “Não dá mais para responsabilizar em vídeo”. Você concorda?
As manipulações ainda são perceptíveis para os profissionais da espaço, mas uma vez que as outras pessoas vão duvidar que aquilo que elas estão vendo não é de verdade se a maioria delas não sabe que há formas de se fabricar esse teor manipulado?
O “ver para crer” já não é mais uma garantia de verdade desde 2017, quando o primeiro código para gerar deepfakes foi lançado. Por enquanto, peritos são capazes de identificar esse tipo de teor. O problema maior será quando os códigos estiverem tão avançados a ponto de nem mesmo esses profissionais conseguirem notabilizar o falso do real.
Se não dá mais para responsabilizar em vídeos, o que precisamos fazer para voltar a responsabilizar?
Obrigando as grandes plataformas a sinalizar claramente que aquele teor é gerado por IA. Elas têm essa capacidade, já anunciaram que possuem essas ferramentas, mas não o fazem porque não há pressão das autoridades. Identificar esse teor gera enormes gastos com processamento de dados e elas querem evitá-los o sumo provável. Eu não descartaria a teoria de que até fazem lobby para que essa obrigação seja postergada.
Por outro lado, o governo precisa urgentemente fabricar campanhas educativas para instruir a população sobre as possibilidades de geração da perceptibilidade sintético, pois as pessoas não vão duvidar de manipulações realísticas se não souberem que isso é provável.
Porquê esses avanços interferem no seu trabalho? Porquê você segue se especializando em perceptibilidade sintético para seguir sendo uma referência na espaço?
Eu trabalho de várias formas. Na geração de vídeos para a internet, por exemplo, não é unicamente a perceptibilidade sintético que faz o trabalho. Tenho um roteiro para prometer que o teor seja engraçado e viralize. Há contexto, piadas e associações de temas. Esse é o meu diferencial nesse ponto, tanto que você não vê outros trabalhos assim circulando pela internet. Quando qualquer outro vídeo com deepfake aparece, geralmente é unicamente uma troca de rosto simples, sem um roteiro para dar sentido àquilo.
Há tapume de quatro anos, criei uma empresa que produz mídia sintética para atender às demandas do mercado. Os clientes buscam por mim porque confiam na qualidade do resultado, uma vez que deepfakes produzidos por aplicativos não possuem a qualidade que grandes produções exigem.
RAIO-X | BRUNO SARTORI, 34
Jornalista, originário de Iturama (MG) e criado em Unaí (MG), trancou a faculdade de Recta e largou um estágio para dedicar-se integralmente à espaço tecnológica. Atualmente mora em São Paulo, trabalha com a apresentadora Tatá Werneck e tem uma empresa de produção de mídia sintética, a Sintetica.ai.
LINK PRESENTE: Gostou deste texto? Assinante pode liberar cinco acessos gratuitos de qualquer link por dia. Basta clicar no F azul aquém.