A proliferação de ferramentas de IA capazes de “despir” pessoas em imagens, principalmente mulheres, segue a todo vapor na internet. Os robôs são impulsionados por redes sociais, das mais às menos rígidas na moderação contra conteúdos nocivos, e entregam o trabalho com poucos cliques.
Entre os casos, a Polícia Social investiga a adulteração do dedo de fotografias de 40 pessoas, sendo 36 menores de idade, em Itararé (SP). As imagens teriam sido manipuladas por adolescentes usando ferramentas de perceptibilidade sintético (IA) para simular nudez.
Na operação, a polícia apreendeu oito celulares em buscas nas residências dos suspeitos. Os laudos periciais dos aparelhos estão em elaboração, segundo o órgão, que não divulgou mais detalhes para preservar investigações.
Alguns sistemas impõem restrições, ainda que facilmente burláveis. O usuário deve declarar que é maior de idade e que não usará fotos de outras pessoas sem consentimento, por exemplo. Os anúncios vão dos mais contidos a mensagens explícitas: “Tire a roupa de qualquer mulher de perdão”.
Telegram e X (idoso Twitter), conhecidos por homiziar com poucas sanções conteúdos do tipo, são os campeões de divulgação, mas não os únicos. Aplicativos especializados em despir mulheres veicularam mais de 300 anúncios nas redes sociais da Meta para brasileiros desde o início do ano, e unicamente uma secção deles foi derrubada por políticas da empresa.
As opções mais comuns são páginas na internet ou chats automatizados no Telegram para a produção das imagens. O desenvolvedor de software Lucas Lago diz que a persistência desses serviços está ligada à estrutura técnica.
“Eles têm um serviço de IA que entrega as imagens para um robô de Telegram. Quando derrubam um robô, os criminosos só precisam gerar um novo, manteúdo pelo mesmo serviço original. É praticamente impossível rastrear a origem”, diz.
Modelos de geração dessas imagens podem ser instalados e treinados em máquinas particulares, driblando as restrições impostas por empresas de IA que proíbem a produção de conteúdos com nudez, segundo Lago.
No Brasil, é verosímil punir quem cria as imagens baseando-se em crimes que já existiam antes mesmo do contexto virtual, uma vez que calúnia e mordacidade, mas a lei brasileira ainda não tem consequência específica para a produção de deepfakes.
Há dois projetos de lei no Congresso, um de autoria do senador Chico Rodrigues (PSB-RR) e outro da deputada federalista Jandira Feghali (PCdoB-RJ), que tratam desse tipo específico de tecnologia.
O TSE (Tribunal Superior Eleitoral) definiu a regulação do uso da perceptibilidade sintético nos contextos eleitorais e a vedação absoluta de uso de deepfake na propaganda eleitoral para as eleições de 2024. Mas o país ainda não estabeleceu punição para quem produz a tecnologia em si, segundo Tainá Junquilho, advogada e professora de recta e tecnologia no IDP.
“Todas as redes sociais já fazem controle de teor de congraçamento com seus termos de uso. Mas, sem uma regulação que atribua o obrigação de integridade da informação e transparência às plataformas, cada uma faz uma vez que quer. Muitos conteúdos são derrubados sem explicações, incluindo alguns válidos, enquanto outros claramente criminosos permanecem online”, diz Junquilho.
O Marco Social da Internet estabelece que as plataformas digitais não são obrigadas a remover conteúdos sem uma ordem judicial específica, exceto em situações que envolvam nudez ou atos sexuais privados divulgados sem autorização.
Ainda assim, a regulação não dá conta de obrigar as plataformas a tratar casos de uso indevido de IA de maneira generalizada, na visão de especialistas. A regulação da IA no Brasil está em discussão no legislativo, mas projetos de lei mais avançados sobre o tema, uma vez que o 2338/2023, esperam para entrar em tarifa novamente em seguida adiamentos sucessivos.
Em nota, a SSP (Secretaria de Segurança Pública de São Paulo) orienta vítimas desse tipo de situação a procurar uma delegacia.
“Essa ação permite que os casos sejam devidamente investigados e os autores presos. Especificamente para combater crimes eletrônicos envolvendo subida tecnologia e delito organizado, incluindo aqueles praticados por meio de redes sociais, São Paulo conta a Partilha de Crimes Cibernéticos (DCCIBER), do Departamento Estadual de Investigações Criminais (Deic)”, diz o órgão.
A Meta afirmou que revisa teor com IA e equipes humanas para remover conteúdos que violem políticas da plataforma.
“Estamos sempre aprimorando nossos esforços para manter nossas plataformas seguras e também incentivamos as pessoas a denunciarem conteúdos e contas que acreditem violar nossas políticas através das ferramentas disponíveis dentro dos próprios aplicativos”, diz a empresa.
Já o Telegram respondeu que usuários da rede social podem denunciar conteúdos do tipo.
“Embora os moderadores já removam milhões de peças de teor prejudicial todos os dias, fortalecer ainda mais a moderação do Telegram é a principal prioridade para 2024. Ou por outra, o Telegram lançou recentemente o bot @searchReport, permitindo que os usuários denunciem termos de pesquisa que podem localizar teor prejudicial no Telegram”, afirma a rede.
O X não se manifestou.
Embora esses serviços tenham caráter propositado, o viés de exploração sexual de mulheres é velho publicado dos sistemas de IA. A principal explicação é a de que modelos são abastecidos com dados que refletem estereótipos da sociedade e não são treinados o suficiente para emendar as distorções.
A designer de produtos Elizabeth Laraki, que já trabalhou em empresas uma vez que Google, YouTube e Facebook, relatou no dia 15 de outubro que uma utensílio de IA alterou indevidamente sua foto promocional para uma conferência, expondo mais seu pescoço.
“Alguém editou minha foto para desabotoar minha blusa e revelar um suposto sutiã ou um tanto por inferior”, escreveu Laraki no X. “Imediatamente, enviei um e-mail ao organizador da conferência.”
Segundo Laraki, os organizadores da conferência Upscale responderam explicando que a pessoa responsável pelas mídias sociais usou uma utensílio de IA para expandir verticalmente uma imagem quadrada retirada do site. A IA “inventou” a secção subalterno da imagem, desabotoando a blusa da palestrante. Os organizadores se desculparam e removeram todo o teor com a foto alterada, de congraçamento com Laraki.
A Folha tentou contato com a organização da conferência, mas, até a publicação deste texto, não obteve resposta.