Golpe Pelo Celular: Empresas Anunciam Medidas Antifraude 30/11/2023

Criminosos usam IA para aplicar 5 novos golpes; proteja-se – 23/07/2024 – Tec

Tecnologia

Posteriormente a popularização do ChatGPT e da perceptibilidade sintético, 2023 ficou registrado uma vez que o ano de maior circulação de conteúdos falsos para emprego de golpes na história. Foram quase 5 milhões de casos, contra 4,7 milhões em 2022.

O oferecido foi divulgado pelo Anti-Phishing Working Group (grupo de trabalho anti-phishing), uma coalizão internacional para combater golpes de engenharia social na internet, que usam uma vez que isca alguma mensagem ou imagem chamativa —por isso, a referência ao verbo pescar em inglês.

Pesquisadores de cibersegurança ouvidos pela Folha afirmam que, além do proveito em graduação, a perceptibilidade sintético permite que os golpistas espalhem mensagens mais convincentes e com menos erros ortográficos.

No lado obscuro da internet, divulgado uma vez que “deep web”, circula até uma versão do ChatGPT sem filtros e especializada em dar assistência a estelionatários: o FraudGPT.

Porta-vozes da Polícia Social, todavia, ainda dizem ter dificuldades para identificar o uso da tecnologia no estelionato do dedo e não trabalham com esse recorte.

Ainda em 2023, o anuário brasílio de segurança pública identificou uma subida de 326,2% nos casos de fraude eletrônica entre 2018 e 2022. Dados de estados que divulgam estatísticas sobre esse transgressão, uma vez que Rio de Janeiro e Pernambuco, indicam que a tendência de desenvolvimento se manteve em 2023.

A reportagem reuniu exemplos dos esquemas com IA, que vão de sites falsos para fingir receptar doações para o Rio Grande do Sul a fakes em aplicativos de relacionamento. Veja uma vez que se proteger.

SITES FALSOS

Em uma procura no Google por sites que arrecadavam recursos para ajudar os desalojados no Rio Grande do Sul, a reportagem encontrou o site falso “doacoes-rs.vercel.app”, hoje fora do ar. A Vercel mencionada no termo do endereço web é uma plataforma para geração simples de sites a partir de perceptibilidade sintético.

A página que indicava doar para uma chave Pix em nome de uma pessoa física era ensejo pela frase de efeito: “ajude-nos a reconstruir vidas”. O site estava repleto de vídeos e imagens da tragédia no Sul, mas não continha referências aos responsáveis por promover a ajuda. Faltavam rostos, nomes, telefone e endereço.

A chave Pix estava no nome de um microempresário individual gaúcho, mas essa informação não era confiável, uma vez que os estelionatários costumam usar dados vazados na internet para penetrar contas e impor golpes. O link estava patrocinado no Google.

Para evitar o prejuízo, o internauta precisa se notar aos detalhes, uma vez que o trecho “vercel.app”, incomum em um endereço de internet.

Outra dica é evitar os links publicitários do Google, que costumam ser a melhor resposta para a procura, e, por isso, pagam para furar a fileira. Os links patrocinados também podem estar em redes sociais.

FAKES DO TINDER

O divulgado golpe do Tinder, que usa perfis falsos para atrair vítimas para sequestros relâmpagos, também ganhou uma versão com IA.

Segmento das contas falsas deixou de usar fotos furtadas de terceiros para utilizar imagens geradas por perceptibilidade sintético. A artimanha dificulta reconhecer quando as imagens na verdade são de uma notoriedade ou de outra pessoa conhecida.

Uma dica para reconhecer imagens de pessoas geradas por IA é olhar as mãos, que costumam ter defeitos. Outro é procurar detalhes problemáticos uma vez que sombras que não fazem sentido ou a falta de marcas de sentença no rosto.

A plataforma Social Catfish, especializada em reconhecer golpes que partem da paquera, recomenda que as pessoas façam buscas reversas para ver se há mais imagens da suposta pessoa na internet. Também é provável buscar por nome, telefone, email ou endereço.

Hoje, os três maiores apps de relacionamento (Tinder, Bumble e Grindr) usam moderação humana e perceptibilidade sintético para identificar os fakes de IA. Tinder e Bumble também oferecem a opção de autenticar o próprio perfil, enviando uma foto tirada na hora, dentro do aplicativo.

Portanto, é mais recomendável manter contato com perfis verificados.

CLONES VIRTUAIS GOLPISTAS

O servidor público goiano Elias Alves diz ter autorizado em uma falsa promoção de um restaurante que frequenta. Teve as contas no WhatsApp e no Instagram invadidas e, outrossim, teve a identidade roubada.

No dia 6 de maio, criminosos copiaram, a partir de uma foto enviada por Alves, a imagem dele em um vídeo fraudulento que usava uma proposta de investimento uma vez que isca.

Posteriormente perceber que havia perdido entrada às redes sociais, Alves conseguiu prevenir amigos e parentes do golpe e evitar prejuízos. Uma vez que não houve perdas materiais, o servidor público não registrou boletim de ocorrência junto à Polícia Social, uma vez que é recomendado.

Esse golpe, noticiado pela Folha em outubro, atrai as vítimas com promessas de investimento de cima retorno financeiro ou venda de móveis a preços impraticáveis e certificam a oferta com a credibilidade da pessoa, do qual perfil fora roubado.

Também circulam nas redes sociais vídeos de famosos uma vez que Neymar, Anitta e Drauzio Varella.

Os conteúdos são produzidos em softwares que usam IA para recriar a voz de pessoas, trocar o rosto em vídeos e sincronizar movimentos labiais.

Essa tecnologia ficou conhecida nos últimos anos uma vez que deepfake e está mais alcançável a cada dia com a popularização de IAs generativas, uma vez que o ChatGPT. Hoje, bastam cinco minutos de áudio para plagiar uma voz com qualidade plausível.

Nesses esquemas, a principal tática é a chamada engenharia social —os criminosos recorrem à lábia para receber transferências de seus alvos de forma espontânea. Isso também diminui a chance de o banco bloquear a transação por comportamentos anômalos, uma vez que ocorre em outros golpes.

O único jeito de se prevenir do risco de ser clonado na internet é restringir a circulação de imagens e áudios de si, de entendimento com o fundador da empresa de cibersegurança Tempest, Lincoln Mattos. Uma opção é tornar a conta privada e limitar a visualização de posts a amigos. A outra é evitar publicar.

LIGAÇÃO FALSA

A mesma tecnologia de deepfakes também é usada em ligações falsas, com vozes clonadas.

A polícia de Hong Kong, por exemplo, investiga um caso em que uma empresa multinacional perdeu 200 milhões de dólares de Hong Kong (R$ 126,5 milhões), depois que estelionatários enganaram seus funcionários com uma chamada de vídeo em grupo falsa criada a partir de IA, de entendimento com o South China Morning Post.

Os fraudadores fabricaram representações do diretor financeiro da empresa e de outras pessoas na chamada usando imagens públicas e convenceram a vítima a fazer um totalidade de 15 transferências para cinco contas bancárias em Hong Kong, informou o jornal neste domingo (4), citando a polícia da cidade.

As autoridades não identificaram a empresa nem os funcionários.

Devido ao maior risco de roubo de identidade com IA, os próprios bancos têm trocado a segurança baseada em biometria por estudo comportamental.

Hábitos pessoais dos clientes, uma vez que horários comuns de transações bancárias e até a maneira de segurar o celular, se tornaram a principal utensílio de bancos para evitar fraudes em meio ao progressão da perceptibilidade sintético generativa, que pode fraudar sistemas de biometria.

MENSAGENS E EMAILS FALSOS EM MASSA

De entendimento com o relatórios do Grupo de Trabalho Anti-Phishing, as redes sociais e as plataformas de email foram o principal lugar de circulação de mensagens golpistas em texto no ano pretérito.

As redes sociais concentraram 43% dos golpes, e as plataformas de email, 15%.

As ferramentas de perceptibilidade sintético permitem que os criminosos automatizem a produção de teor e evitem erros gramaticais, que podem gerar estranheza ao leitor.

Quando a isca funciona por si, os criminosos não precisam atrair as vítimas para um site falso, de entendimento com Fabio Assolini, diretor da equipe de pesquisa da Kaspersky para América Latina.

A empresa, por exemplo, identificou textos fraudulentos nas redes sociais com objetivo de desviar doações via Pix. Os criminosos citavam entidades legítimas, mas adicionavam chaves de pessoas e empresas laranjas.

Para evitar prejuízos, é sempre importante checar o destinatário da transferência. Embora o Pix seja rastreável pelo sistema do Banco Medial, os criminosos, em universal, fracionam as quantias e as movimentam por várias contas para dificultar a procura pelo verba.

Checar se o CNPJ da empresa confere também evita perdas.

Folha

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *