Abuso Sexual Gerado Por Ia Cresce E Sobrecarregam Canais

Abuso sexual gerado por IA cresce e sobrecarregam canais – 22/04/2024 – Tec

Tecnologia

Uma novidade vaga de material de afronta sexual infantil criado por perceptibilidade sintético está ameaçando sobrecarregar as autoridades americanas, já limitadas por tecnologia e leis antiquadas, de combinação com um novo relatório divulgado na segunda-feira pelo Observatório da Internet da Universidade de Stanford.

No último ano, novas tecnologias de perceptibilidade sintético tornaram mais fácil para criminosos gerar imagens explícitas de crianças.

Agora, pesquisadores de Stanford estão alertando que o Núcleo Pátrio de Crianças Desaparecidas e Exploradas, uma organização sem fins lucrativos que atua uma vez que filial coordenadora meão e recebe a maioria de seus recursos do governo federalista, não tem os recursos para combater a crescente ameaço.

A risco de denúncias da organização, criada em 1998, é o ponto meão federalista para todos os relatórios sobre material de afronta sexual infantil online e é usada pelas autoridades para investigar crimes. Mas muitas das dicas recebidas são incompletas ou cheias de imprecisões. Seu pequeno quadro de funcionários também tem lutado para seguir o volume.

“Quase certamente nos próximos anos, a risco será inundada com teor de IA altamente realista, o que tornará ainda mais difícil para as autoridades identificar crianças reais que precisam ser resgatadas”, disse Shelby Grossman, uma das autoras do relatório.

O Núcleo Pátrio de Crianças Desaparecidas e Exploradas está na risco de frente de uma novidade guerra contra imagens sexualmente exploradoras criadas com IA, uma extensão emergente de delito ainda sendo delineada por legisladores e autoridades.

Em meio a uma epidemia de deepfakes de “nudes” gerados por IA circulando em escolas, alguns legisladores estão tomando medidas para prometer que tal teor seja considerado proibido.

Imagens de CSAM geradas por IA são ilegais se contiverem crianças reais ou se imagens de crianças reais forem usadas para treinar dados, dizem os pesquisadores

Mas aquelas feitas sinteticamente que não contêm imagens reais podem ser protegidas uma vez que liberdade de frase, de combinação com um dos autores do relatório.

A revolta pública pela proliferação de imagens de afronta sexual online de crianças explodiu em uma audiência recente com os principais executivos da Meta, Snap, TikTok, Discord e X, que foram criticados pelos legisladores por não fazerem o suficiente para proteger crianças online.

O meio para crianças desaparecidas e exploradas, que recebe dicas de indivíduos e empresas uma vez que Facebook e Google, argumentou em prol de legislação para aumentar seu financiamento e dar-lhe chegada a mais tecnologia.

Pesquisadores de Stanford disseram que a organização forneceu chegada a entrevistas de funcionários e seus sistemas para o relatório para mostrar as vulnerabilidades dos sistemas que precisam ser atualizados.

“Ao longo dos anos, a complicação dos relatórios e a sisudez dos crimes contra crianças continuam a evoluir”, disse a organização em um transmitido. “Portanto, aproveitar soluções tecnológicas emergentes em todo o processo da Risco Cibernética leva a mais crianças sendo protegidas e os infratores sendo responsabilizados.”

Os pesquisadores de Stanford descobriram que a organização precisava mudar a forma uma vez que sua risco de dicas funcionava para prometer que as autoridades pudessem instaurar quais relatórios envolviam teor gerado por IA, muito uma vez que prometer que as empresas que relatam material de afronta em suas plataformas preencham os formulários completamente.

Menos da metade de todos os relatórios feitos para a Risco Cibernética eram “acionáveis” em 2022, seja porque as empresas que relatavam o afronta não forneciam informações suficientes ou porque a imagem em uma dica se espalhava rapidamente online e era relatada muitas vezes. A risco de dicas tem uma opção para verificar se o teor na dica é um meme potencial, mas muitos não a usam.

Em um único dia no início deste ano, um recorde de um milhão de relatórios de material de afronta sexual infantil inundou o ponto meão federalista. Por semanas, os investigadores trabalharam para responder ao pico incomum. Descobriu-se que muitos dos relatórios estavam relacionados a uma imagem em um meme que as pessoas estavam compartilhando em várias plataformas para expressar indignação, não intenção maliciosa. Mas ainda consumiu recursos significativos de investigação.

Essa tendência piorará à medida que o teor gerado por IA se apressar, disse Alex Stamos, um dos autores do relatório de Stanford.

“Um milhão de imagens idênticas já é difícil o suficiente, um milhão de imagens separadas criadas por A.I. os quebraria”, disse o Sr. Stamos.

O meio para crianças desaparecidas e exploradas e seus contratados são restritos de usar provedores de computação em nuvem e são obrigados a armazenar imagens localmente em computadores. Essa exigência dificulta a construção e o uso do hardware especializado usado para gerar e treinar modelos de A.I. para suas investigações, descobriram os pesquisadores.

A organização geralmente não possui a tecnologia necessária para usar amplamente o software de reconhecimento facial para identificar vítimas e infratores. Grande segmento do processamento de relatórios ainda é manual.

Folha

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *