O vídeo diz tudo ao contrário do que Tânia Roble defende. O rosto é o dela, o quarto é o dela, as pernas são a dela, a voz parece ser a dela, mas a mensagem é um pouco que ela nunca promoveria.
“Eu tenho lipedema, e eu já estava no proporção dois. E eu vou te descrever uma vez que eu saí disso cá, para esse resultado cá em somente sete dias”, diz o vídeo disponível uma vez que anúncios no Instagram. Nas imagens, um antes e depois das pernas de Tânia.
Lipedema é uma doença que vem sendo “invenção” nos últimos anos. Ela desculpa acúmulo de gordura nas pernas e braços de aproximadamente 10% das mulheres em todo o mundo. Os nódulos se assemelham a celulite e podem fomentar dor.
O vídeo falso continua até debutar a promover um milagroso “chá próprio”.
“Eu só precisava tomar ele toda manhã durante sete dias”, diz no vídeo a falsa Tânia.
“O chá vai agir na sua manante sanguínea, liberando toda a gordura adiposa, tecidos inflamados e retenção de líquidos.”
Não há qualquer comprovação de que um chá possa fazer tal efeito. E Tânia sabe muito disso.
Há menos de um ano, a carioca de 31 anos começou a compartilhar sua rotina posteriormente ser diagnosticada com lipedema, com a intenção de reunir mulheres que sofrem com o mesmo problema.
Ela estava se preparando para fazer uma cirurgia de lipoaspiração específica para retirar as células de gordura afetadas pela doença e queria compartilhar seu pós-operatório.
No processo de invenção e desvelo, a carioca aprendeu que o tratamento de lipedema é um processo multidisciplinar, envolvendo exercícios, sustento, tratamentos.
Ou seja, zero de um chá milagroso.
No vídeo verdadeiro, inclusive, Tânia justamente defende que não é “só fazer alguma coisa que vai ter resultado”, contando que seu tratamento envolveu a mediação cirúrgica.
“Tudo é muito mais multíplice do que malhar um ano, tem muitos fatores, uma vez que hormonal, idade. A doença não é tão simples quanto parece”, explicou no vídeo para as seguidoras.
Os vídeos de Tânia chamaram a atenção no Instagram e acabaram reunindo uma pequena comunidade de mulheres. No Instagram, em março de 2025, eram pouco mais de 6 milénio seguidoras.
Mas o tamanho da conta não impediu que Tânia acabasse sendo vítima do chamado deepfake, um vídeo com sua imagem criado por uma IA (lucidez sintético) fundamentado em sua voz, gestos e expressões faciais.
Há plataformas on-line que oferecem com facilidade a geração desse tipo de teor, também divulgado uma vez que mídia sintética.
Pessoas famosas já têm sido vítimas desse tipo de vídeo há qualquer tempo. A imagem do médico Drauzio Varella, por exemplo, tem sido usada em vídeos que promovem tratamentos especiais ou medicamentos para resolver problemas de saúde. Todos falsos.
Celebridades uma vez que a cantora Ivete Sangalo e as apresentadoras Ana Maria Braga e Xuxa também já foram vítimas
Mas o caso uma vez que o de Tânia labareda atenção por ser de uma pessoa com pouca visibilidade. Ou seja, a maioria das pessoas que viu o proclamação provavelmente não sabe reconhecer uma vez que ela fala originalmente ou uma vez que ela pensa.
Também é sinal de que muitas pessoas podem estar tendo suas imagens usadas sem nem saber.
Até a publicação dessa reportagem, o proclamação seguia disponível, apesar da denúncia de Tânia ao Instagram. A usuária recebeu uma mensagem que diz que o vídeo “segue os padrões da comunidade”.
Em nota à BBC News Brasil, a Meta, dona do Instagram, somente afirmou que “atividades que tenham uma vez que objetivo enganar, fraudar ou explorar terceiros não são permitidas”, orientando pessoas a denunciarem na plataforma – um pouco que Tânia diz já ter feito. A empresa não disse se vai tirar o teor do ar.
Tânia diz ainda não saber se vai prosseguir com alguma ação judicial, já que isso demandaria “vontade e numerário”.
‘ATÉ AGORA SEM ACREDITAR’
Essa não foi a primeira vez que a imagem de Tânia foi usada num vídeo para promover qualquer resultado on-line. Há alguns meses, imagens das pernas dela apareceram numa montagem junto ao prova de um médico para vender um “protocolo de desinflamação” de combate ao lipedema.
Dessa vez, porém, a tecnologia foi mais sofisticada, com a própria imagem dela falando do chá milagroso.
“No primeiro vídeo, achei que era o sumo que podiam me atingir. Quando me mandaram isso (o deepfake), eu fiquei muito chocada e até agora estou sem crer”, diz Tânia.
“O indumento de ver os dentes que não são meus, naquela boca que não é minha, me ouvindo falar um pouco que é contraditório, me fez pensar ‘meu Deus, eu posso realmente ser vítima de um pouco muito pior’.”
Foram duas amigas que alertaram Tânia sobre o golpe com o vídeo, já que conheciam o teor original e sabiam que ela não postaria aquilo que estavam vendo.
Por seguirem páginas relacionadas ao lipedema, provavelmente as amigas entraram uma vez que um público-alvo do proclamação falso.
O vídeo está vinculado a uma página do Facebook, de uma suposta médica sem posts ou seguidores. A foto usada nesse perfil pode ser rastreada a outras páginas de saúde e até a um blog da Costa do Marfim que alerta que essa é uma imagem frequentemente usada em sites por golpistas.
Ao final do vídeo deepfake, há um link que leva a um site com uma pesquisa sobre sintomas do lipedema, para se chegar ao “método granjeiro que mulheres estão eliminando a gordura de forma oriundo em sete dias”.
Na medida em que se avança nas perguntas, há relatos de celebridades uma vez que a protótipo Yasmin Brunet, que recentemente divulgou ter a doença.
Ao final, é vendido por R$ 37 um pacote de “produtos”. Entre eles, a “receita secreta do chá detox anti-inflamatório de lipedema” e um “séquito personalizado via WhatsApp”.
Tânia não chegou a ser procurada por alguém que tenha de indumento derribado no golpe.
Mas, posteriormente saber que estavam usando sua imagem, a carioca postou um vídeo reagindo ao deepfake. Foi aí que ela ficou assustada. Muitas pessoas comentaram que demoraram para perceber a diferença entre a “Tânia fake” e ela.
“Porque uma coisa são as pessoas que me conhecem, sabem o que eu falo, minha voz, o vídeo original. Mas as pessoas que não me conhecem vendo aquele vídeo, no desespero, podem desabar”, diz.
Essa procura por soluções ao lipedema vem aumentando nos últimos anos devido a mais conhecimento sobre o ponto.
Em 2019, a Organização Mundial da Saúde (OMS) reconheceu o lipedema uma vez que uma doença distinta. Em 2022, o quadro foi incluído na Classificação Internacional de Doenças (CID-11), um manual amplamente utilizado uma vez que referência global para identificação e registro de condições de saúde.
No Brasil, entretanto, a adoção da CID-11, prevista inicialmente para 2025, foi adiada para 2027 pelo Ministério da Saúde, que justificou a decisão com a premência de treinar profissionais e atualizar os sistemas.
O lipedema é considerado “novo” não só pela falta de privança de profissionais de saúde com o quadro – que ainda persiste mesmo posteriormente 85 anos da primeira descrição – mas também porque faltam respostas importantes sobre o mecanismo da doença.
“Ainda falta entender o mecanismo do acúmulo diferenciado da gordura do lipedema e suas vias metabólicas, ou seja, os processos bioquímicos responsáveis pela produção, armazenamento e mobilização dessa gordura no organização”, explicou à BBC o cirurgião vascular Mauro de Andrade.
‘PRECISAMOS NOS ACOSTUMAR A NÃO ACREDITAR’, DIZ ADVOGADA
Para Tânia, o que preocupa não é somente o caso em que ela foi vítima.
“Eu sou uma ‘Zé ninguém’ e usaram minha imagem. E eu fico imaginando crianças sendo expostas, mulheres que têm a imagem delas usada para coisas piores. É um pouco muito preocupante”, diz.
Na avaliação da advogada Andressa Bizutti, rabino na Universidade Harvard, nos EUA, e pesquisadora de mídia sintética na USP (Universidade de São Paulo), esse progressão na tecnologia com a IA, na verdade, escancara problemas sociais anteriores, uma vez que golpes, informações falsas ou até o uso do corpo da mulher em casos de deepfakes pornô que se espalham pela internet.
A advogada defende que o que aconteceu com deepfake é que a tecnologia mexeu em um lugar que a sociedade ainda não sabia que era verosímil: o vídeo. Já estávamos acostumados a mourejar com montagem de fotos, por exemplo, sabendo que nem tudo o que vemos é verdade.
“Vídeo sempre teve um consenso na filosofia de transparência: você via e achava que estava vendo a veras”, diz Bizutti, sócia do escritório b/luz.
“A mídia sintética dá um passo suplementar por conta desse vista cultural que a gente ainda não se acostumou uma vez que sociedade.”
Apesar dos avançados deepfakes, Bizutti explica que casos uma vez que o de Tânia já são contemplados na legislação vigente sobre direitos à personalidade (imagem, nome e voz).
“Esses direitos estão protegidos no Brasil, estão presentes na Constituição Federalista, no Código Social e são inalienáveis [não se pode transferir]”, conta.
A lei já diz que não se pode usar a imagem de uma pessoa “se o uso for atingir a honra, a boa reputação, a respeitabilidade ou se destinarem a fins comerciais”.
Há um projeto de lei avançando no Congresso, o PL 2338, que trata sobre Lucidez Sintético. A reverência de deepfake, ele diz, ainda sem dar detalhes, que vídeos alterados precisariam ser identificados de alguma forma. Ou seja, trata mais sobre a transparência do uso de IA do que regula o que pode ou não fazer com a imagem das pessoas.
Para a advogada especializada no tema, os passos que a sociedade e o recta precisam dar é “mais uma questão sobre uma vez que vamos mourejar com esses usos do que necessariamente uma regulamentação”.
“O problema não é a IA ou deepfake. O problema é você ver um vídeo e ser iludido por esse vídeo. A gente tem que se avezar com o indumento que a gente não pode crer no que a gente está vendo”.
Para Bizutti, com o aprimoramento da tecnologia, vai antecipar cada vez menos a procura por “sinais” de que o vídeo é falso, uma vez que uma voz robótica ou uma boca que mexe de maneira esquisita.
“Você tem saber de onde o vídeo vem, a manadeira. Da mesma forma, quando começamos a usar internet nas pesquisas da escola, a gente aprendeu que não podia pegar informação de qualquer lugar no Google, de um site aleatório. O mesmo passo a gente vai precisar dar com os vídeos”, conta.
Caso a vítima se sentir lesada, o ideal procurar os mecanismos judiciais. O Marco Social da Internet, por exemplo, tem mecanismos para o usuário pedir a identificação de quem realizou as postagens e requerer indenização, por exemplo. O Judiciário também pode mandar que as plataformas tirem o teor do ar.
Texto publicado originalmente cá