Taylor Swift: X Diz Que Prioriza Segurança Ao Barrar Busca

Taylor Swift: X diz que prioriza segurança ao barrar busca – 29/01/2024 – Tec

Tecnologia

O X, velho Twitter, de Elon Musk bloqueou pesquisas sobre Taylor Swift depois que imagens sexualmente explícitas da cantora pop, criadas usando lucidez sintético, se espalharam amplamente na plataforma.

O incidente é o exemplo mais recente de uma vez que os grupos de mídia social estão lutando para mourejar com os chamados deepfakes: imagens e áudios realistas, gerados usando IA, que podem ser usados de forma abusiva para retratar indivíduos proeminentes em situações comprometedoras ou enganosas sem o consentimento deles.

Qualquer pesquisa por termos uma vez que “Taylor Swift” ou “Taylor IA” no X retornava uma mensagem de erro por várias horas durante o término de semana, depois que imagens pornográficas geradas por IA da cantora proliferaram online nos últimos dias. O bloqueio continuava nesta segunda-feira (29).

A mudança significa que até mesmo teor legítimo sobre uma das estrelas mais populares do mundo é mais difícil de ser visualizado no site.

“Esta é uma ação temporária e feita com muita cautela, pois priorizamos a segurança dessa questão”, disse Joe Benarroch, patrão de operações comerciais do X.

Swift não comentou publicamente sobre o tópico.

O X foi comprado por US$ 44 bilhões em outubro de 2022 pelo bilionário empreendedor Musk, que reduziu os recursos dedicados à moderação de teor e flexibilizou suas políticas de moderação, citando seus ideais de liberdade de sentença.

Seu uso do mecanismo de moderação direta neste término de semana ocorre enquanto o X e seus concorrentes Meta, TikTok e YouTube do Google enfrentam uma pressão crescente para combater o desfeita da tecnologia deepfake, cada vez mais realista e de fácil aproximação. Um mercado rápido de ferramentas surgiu que permite a qualquer pessoa usar IA generativa para fabricar um vídeo ou imagem semelhante a uma notoriedade ou político em somente alguns cliques.

Embora a tecnologia deepfake esteja disponível há vários anos, avanços recentes na IA generativa tornaram as imagens mais fáceis de serem criadas e mais realistas. Especialistas alertam que a geração de imagens pornográficas falsas é um dos abusos emergentes mais comuns da tecnologia deepfake e também apontam seu uso crescente em campanhas de desinformação política durante um ano de eleições ao volta do mundo.

Em resposta a uma pergunta sobre as imagens de Swift na sexta-feira, a secretária de prelo da Vivenda Branca, Karine Jean-Pierre, disse que a circulação das imagens falsas era “alarmante”, acrescentando: “Embora as empresas de mídia social tomem suas próprias decisões independentes sobre gerenciamento de teor, acreditamos que elas têm um papel importante a desempenhar na emprego de suas próprias regras”. Ela instou o Congresso a legislar sobre o tópico.

Na quarta-feira (31), executivos de mídia social, incluindo Linda Yaccarino, do X, Mark Zuckerberg, do Meta, e Shou Zi Chew, do TikTok, serão questionados em uma audiência do comitê judiciário do Senado dos EUA sobre exploração sexual infantil online, depois preocupações crescentes de que suas plataformas não façam o suficiente para proteger as crianças.

Na sexta-feira (26), a conta solene de segurança do X afirmou em um enviado que a postagem de imagens de “nudez não consensual (NCN)” era “estritamente proibida” na plataforma, que tem uma “política de tolerância zero em relação a esse teor”.

Eles acrescentaram: “Nossas equipes estão removendo ativamente todas as imagens identificadas e tomando medidas apropriadas contra as contas responsáveis por postá-las. Estamos monitorando de perto a situação para prometer que quaisquer violações adicionais sejam imediatamente tratadas e o teor seja removido”.

No entanto, os recursos de moderação de teor reduzidos do X não conseguiram impedir que as imagens falsas de Swift fossem visualizadas milhões de vezes antes de serem removidas, forçando a empresa a recorrer ao bloqueio de pesquisas de uma das maiores estrelas do mundo.

Um relatório do site de notícias de tecnologia 404 Media descobriu que as imagens pareciam ter origem no quadro de avisos anônimo 4chan e em um grupo no aplicativo de mensagens Telegram, devotado ao compartilhamento de imagens abusivas geradas por IA de mulheres, frequentemente feitas com uma instrumento da Microsoft.

A Microsoft disse que ainda está investigando as imagens, mas “reforçou nossos sistemas de segurança existentes para evitar que nossos serviços sejam usados para ajudar a gerar imagens uma vez que essas”. O Telegram não respondeu imediatamente aos pedidos de observação.

Folha

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *