Uma novidade vaga de material de insulto sexual infantil criado por perceptibilidade sintético está atingindo um ponto crítico de realismo, ameaçando sobrecarregar as autoridades.
Nos últimos dois anos, novas tecnologias de IA tornaram mais fácil para criminosos gerar imagens e vídeos explícitos de crianças. Agora, pesquisadores de organizações uma vez que a Internet Watch Foundation (Instauração de Reparo da Internet) e o NCMEC (Núcleo Pátrio para Crianças Desaparecidas e Exploradas, na {sigla} em inglês) estão alertando sobre um aumento de novo material nascente ano que é quase indistinguível de abusos reais.
Novos dados divulgados na quinta-feira (10) pela Internet Watch Foundation, uma organização sem fins lucrativos britânica que investiga e coleta denúncias de imagens de insulto sexual infantil, identificaram 1.286 vídeos de insulto sexual infantil gerados por IA até agora neste ano globalmente, em confrontação com exclusivamente dois no primeiro semestre de 2024.
Os vídeos tornaram-se mais fluidos e detalhados, disseram os analistas da organização, devido a melhorias na tecnologia e colaboração entre grupos em partes de difícil entrada da internet chamadas dark web para produzi-los.
O aumento de vídeos realistas soma-se a uma explosão de material de insulto sexual infantil produzido por IA. Nos Estados Unidos, o Núcleo Pátrio para Crianças Desaparecidas e Exploradas disse que recebeu 485 milénio denúncias destes conteúdos, incluindo imagens estáticas e vídeos, no primeiro semestre do ano, em confrontação com 67 milénio durante todo o ano de 2024.
“É um canário na mina de carvão”, disse Derek Ray-Hill, CEO interino da Internet Watch Foundation. O teor gerado por IA pode moderar imagens de crianças reais junto com imagens falsas, disse ele, acrescentando: “Há um tsunami integral que estamos vendo”.
A enxurrada de material de IA ameaço tornar o trabalho das forças policiais ainda mais difícil. Embora ainda seja uma fração minúscula da quantidade totalidade de material de insulto sexual infantil encontrado online, que somou denúncias na mansão dos milhões, a polícia tem sido inundada com pedidos para investigar imagens geradas por IA, desviando-os da perseguição daqueles envolvidos em insulto infantil.
As autoridades policiais dizem que as leis federais contra material de insulto sexual infantil e obscenidade abrangem imagens geradas por IA, incluindo teor totalmente criado pela tecnologia e que não contém imagens reais de crianças.
Além dos estatutos federais, legisladores estaduais também correram para criminalizar representações de insulto sexual infantil geradas por IA, promulgando mais de três dezenas de leis estaduais nos últimos anos.
Mas os tribunais estão exclusivamente começando a mourejar com as implicações legais, disseram especialistas jurídicos.
A novidade tecnologia deriva da IA generativa, que explodiu em popularidade com a introdução do ChatGPT da OpenAI em 2022. Logo depois, empresas introduziram geradores de imagens e vídeos de IA, levando as forças policiais e grupos de segurança infantil a alertar sobre questões de segurança.
Grande secção do novo teor de IA inclui imagens reais de insulto sexual infantil que são reutilizadas em novos vídeos e imagens estáticas. Segmento do material usa fotos de crianças extraídas de sites escolares e redes sociais. As imagens são tipicamente compartilhadas entre usuários em fóruns, via mensagens em redes sociais e outras plataformas online.
Em dezembro de 2023, pesquisadores do Stanford Internet Observatory encontraram centenas de exemplos de material de insulto sexual infantil em um conjunto de dados usado em uma versão inicial do gerador de imagens Stable Diffusion. A Stability AI, que administra o Stable Diffusion, disse que não esteve envolvida no treinamento de dados do padrão estudado por Stanford. Afirmou que uma empresa externa havia desenvolvido essa versão antes da Stability AI assumir o desenvolvimento individual do gerador de imagens.
Exclusivamente nos últimos meses as ferramentas de IA se tornaram boas o suficiente para enganar o olho humano com uma imagem ou vídeo, evitando alguns dos indícios anteriores uma vez que dedos demais em uma mão, fundos desfocados ou transições bruscas entre quadros de vídeo.
A Internet Watch Foundation encontrou exemplos no mês pretérito de indivíduos em um fórum da web subterrânea elogiando a tecnologia mais recente, onde comentaram sobre o quão realistas eram um novo lote de vídeos de insulto sexual infantil gerados por IA. Eles destacaram uma vez que os vídeos rodavam suavemente, continham fundos detalhados com pinturas nas paredes e móveis, e retratavam múltiplos indivíduos envolvidos em atos violentos e ilegais contra menores.
Tapume de 35 empresas de tecnologia agora relatam imagens de insulto sexual infantil geradas por IA ao Núcleo Pátrio para Crianças Desaparecidas e Exploradas, disse John Shehan, um cima funcionário do grupo, embora algumas sejam irregulares em sua abordagem. As empresas que apresentam mais denúncias geralmente são mais proativas em encontrar e relatar imagens de insulto sexual infantil, disse ele.
A Amazon, que oferece ferramentas de IA através de seu serviço de computação em nuvem, relatou 380 milénio incidentes de material de insulto sexual infantil gerado por IA no primeiro semestre do ano, que foram removidos. A OpenAI relatou 75 milénio casos. A Stability AI relatou menos de 30.
A Stability AI disse que introduziu salvaguardas para aprimorar seus padrões de segurança e “está profundamente comprometida em prevenir o uso indevido de nossa tecnologia, particularmente na geração e disseminação de teor prejudicial, incluindo materiais de insulto sexual de crianças”.
Amazon e OpenAI, quando solicitadas a comentar, apontaram para relatórios que publicaram online explicando seus esforços para detectar e relatar nascente tipo de material.
Algumas redes criminosas estão usando IA para gerar imagens sexualmente explícitas de menores e depois chantagear as crianças, disse um funcionário do Departamento de Justiça, que pediu anonimato para discutir investigações privadas. Outras crianças usam aplicativos que pegam imagens de pessoas reais e as despem, criando o que é divulgado uma vez que deepfake de nudez.
Embora imagens de insulto sexual contendo crianças reais sejam claramente ilegais, a lei ainda está evoluindo sobre materiais gerados inteiramente por perceptibilidade sintético, disseram alguns estudiosos do recta.
Em março, um varão de Wisconsin réu pelo Departamento de Justiça de gerar, partilhar e possuir ilegalmente imagens totalmente sintéticas de insulto sexual infantil contestou com sucesso uma das acusações contra ele com base na Primeira Emenda. O juiz James Peterson do Tribunal Distrital dos EUA para o Região Ocidental de Wisconsin disse que “a Primeira Emenda geralmente protege o recta de possuir material obsceno em mansão” desde que não seja “pornografia infantil real”.
Mas o julgamento prosseguirá com as outras acusações, relacionadas à produção e distribuição de 13 milénio imagens criadas com um gerador de imagens. O varão tentou compartilhar imagens com um menor no Instagram, que o denunciou, segundo promotores federais.
“O Departamento de Justiça vê todas as formas de material de insulto sexual infantil gerado por IA uma vez que uma ameaço séria e emergente”, disse Matt Galeotti, encarregado da repartição criminal do Departamento de Justiça.
