Openai lança rede social apenas com vídeos gerados por ia

OpenAI lança rede social apenas com vídeos gerados por IA – 04/10/2025 – Tec

Tecnologia

Imagens de segurança de um famoso CEO de tecnologia furtando uma loja, Ronald McDonald em uma perseguição policial, Jesus brincando sobre “vibes de última ceia” em um vídeo em frente a uma mesa de jantar lotada. Todos são vídeos falsos que, na quarta-feira (1º), estavam entre os mais populares em um novo aplicativo estilo TikTok que borra ainda mais a risco entre veras e fantasia ou falsidade gerada por IA (lucidez sintético).

Sora, lançado pela OpenAI, criadora do ChatGPT, é um aplicativo onde cada segundo de áudio e vídeo é gerado por IA. Os usuários podem gerar vídeos falsos que retratam a si mesmos ou seus amigos em praticamente qualquer cenário imaginável, com realismo consistentemente eminente e uma trilha sonora suasivo, inclusive com vozes. A OpenAI disse que o aplicativo está inicialmente disponível exclusivamente nos Estados Unidos e Canadá, mas que o entrada será expandido.

Nas 24 horas em seguida o lançamento do aplicativo na terça-feira (30), os primeiros usuários exploraram o poder da tecnologia aprimorada de geração de vídeos da OpenAI e a diversão de inserir amigos em cenas absurdas, ou fazê-los trovar, dançar ou voar.

Os usuários também postaram clipes que mostraram porquê ferramentas de vídeo de IA mais poderosas poderiam ser usadas para enganar, assediar e também levantar questões legais sobre direitos autorais.

Vídeos falsos que viralizaram no Sora incluíam imagens realistas de câmeras corporais da polícia, recriações de programas populares de TV e clipes que quebraram as proteções destinadas a impedir o uso não autorizado da imagem de uma pessoa.

Testes realizados pelo The Washington Post mostraram que o Sora poderia gerar vídeos falsos de pessoas reais vestidas porquê generais nazistas, cenas falsas altamente convincentes de programas de TV, incluindo “South Park”, e imagens falsas de figuras históricas porquê John F. Kennedy.

Especialistas têm alertado há anos que vídeos gerados por IA poderiam se tornar indistinguíveis de vídeos filmados com câmeras, minando a crédito em filmagens do mundo real. A combinação do Sora de tecnologia de IA aprimorada e sua capacidade de inserir realisticamente pessoas reais em clipes falsos parece tornar tal confusão mais provável.

“O duelo com ferramentas porquê o Sora é que ele torna o problema exponencialmente maior porque é muito disponível e muito bom”, disse Ben Colman, CEO e cofundador da Reality Tutelar, uma empresa que desenvolve software para ajudar bancos e outras empresas a detectar fraudes e deepfakes de IA.

Unicamente alguns meses detrás, pessoas comuns não tinham entrada à geração de vídeo de IA de subida qualidade, disse Colman. “Agora está em toda segmento.”

Teor gerado por IA tornou-se cada vez mais generalidade —e popular— em plataformas porquê TikTok e YouTube ao longo do último ano. Estúdios de Hollywood estão experimentando a tecnologia para correr produções.

O presidente Donald Trump postou esta semana um vídeo falso gerado por IA em sua rede social Truth Social mostrando o líder da minoria na Câmara, Hakeem Jeffries, com um sombrero e bigode durante uma coletiva de prelo. A conta do governador da Califórnia, Gavin Newsom, no X postou vídeos falsos do vice-presidente J.D. Vance no X.

O novo aplicativo Sora torna a OpenAI a primeira grande empresa de tecnologia a tentar erigir uma plataforma social de vídeo totalmente focada em vídeo falso. O Sora ficou em terceiro lugar porquê o download mais popular na App Store da Apple um dia em seguida seu lançamento, apesar do entrada ao aplicativo ser restringido àqueles que têm um código de invitação de um usuário existente.

A OpenAI lançou a primeira versão do Sora no ano pretérito, porquê uma utensílio que simplesmente convertia comandos de texto em curtos clipes de vídeo falsos. O Google e outras empresas logo lançaram suas próprias ferramentas de vídeo de IA. A Meta adicionou na semana passada um recurso chamado Vibes ao seu aplicativo de IA que permite que as pessoas criem e compartilhem vídeos de IA.

As ferramentas da Meta e do Google permitem a geração de pessoas com figura real. Com o Sora, a OpenAI foi além e projetou o aplicativo para incentivar os usuários a fazer vídeos de pessoas específicas e compartilhar sua própria imagem para que outros usem.

Um porta-voz da OpenAI disse que as regras para seus produtos proíbem personificação, golpes e fraudes. A empresa também adicionou proteções extras ao aplicativo quando pessoas reais são apresentadas em vídeos, destinadas a bloquear nudez e violência gráfica.

Em resposta a perguntas sobre possíveis violações de direitos autorais quando os usuários fazem vídeos replicando conteúdos, o superintendente de parcerias de mídia da OpenAI, Varun Shetty, disse que os usuários estão “ansiosos para se envolver com sua família e amigos através de suas próprias imaginações, muito porquê histórias, personagens e mundos que amam.”

A OpenAI bloqueará quaisquer personagens com direitos autorais se os detentores de direitos pedirem que sejam removidos, disse Shetty. O Post relatou anteriormente que testes com uma versão anterior da tecnologia de vídeo da OpenAI sugeriam que ela havia sido criada usando versões de filmes e programas da Netflix. A empresa está enfrentando múltiplos processos alegando que usou indevidamente texto de livros, notícias e outras fontes para treinar sistemas de IA.

O Washington Post tem uma parceria de teor com a OpenAI.

A Disney enviou no mês pretérito uma missiva de desistência ao aplicativo de chatbot Character AI, pedindo que removesse chatbots personalizados por seus usuários para interpretar personagens da Disney. “A Disney não permitirá que sua empresa sequestre personagens, danifique marcas ou infrinja direitos autorais e/ou marcas registradas”, de convénio com uma traslado da missiva vista pelo Post.

O Sora coloca imagens de pessoas reais em vídeos falsos com um recurso chamado “cameos”. Os usuários carregam um vídeo pequeno de seu rosto que, uma vez processado pelo aplicativo, pode ser usado pelo Sora para inserir a imagem dessa pessoa em vídeos gerados por IA. Os usuários podem manter seu cameo para si mesmos, permitir que amigos também o usem, ou até mesmo permitir que qualquer usuário do Sora gere vídeos com seu rosto.

A OpenAI disse que dar aos usuários a capacidade de controlar o uso de sua imagem dessa maneira protegerá contra possíveis usos indevidos. Os usuários podem excluir vídeos feitos com sua imagem por outros se não gostarem deles, e o Sora tenta bloquear tentativas de gerar vídeos de figuras públicas porquê políticos e celebridades.

Mas nas primeiras horas do lançamento público do aplicativo, alguns usuários encontraram maneiras de contornar esses limites. Justine Ezarik, youtuber conhecida porquê iJustine, postou no Sora que seu rosto estava “crédulo para qualquer pessoa que queira fazer um vídeo comigo agora, logo não abusem.”

Outros usuários rapidamente a adicionaram em todos os tipos de cenas, incluindo uma série de clipes postados sob o nome de usuário “JustineLover”, que a retratavam sendo respingada com líquido branco peganhento. A conta foi posteriormente removida. “Estou feliz que essa conta tenha sido removida antes mesmo de nascer no meu feed”, escreveu Ezarik em um e-mail. Ela disse que monitora o uso de seu cameo no aplicativo Sora para que possa “excluir qualquer coisa que ultrapasse os limites.”

Novos usuários do aplicativo são apresentados a caixas de seleção pedindo que não criem vídeos que contenham “violência ou temas explícitos”, retratem crianças ou apresentem pessoas sem seu consentimento. O aplicativo às vezes se recusa a gerar vídeos e exibe um aviso de que a solicitação violou suas políticas ou “proteções contra assédio, discriminação, bullying ou teor proibido semelhante.”

Mathieu Samson, fundador da Kickflix, dependência de produção de filmes com IA, usou o Sora para fazer um mercantil de TV falso, mas realista, para um conjunto de brinquedos infantis chamado “Ilhota Secreta” que apresenta uma “sala de massagem escondida”, em referência ao criminoso sexual réprobo Jeffrey Epstein.

“Definitivamente não há filtros suficientes”, disse Samson, prevendo que, porquê aconteceu com outras novas ferramentas de IA, a OpenAI adicionará mais restrições à medida que clipes problemáticos forem sinalizados e denunciados. Ele espera que os usuários ainda encontrem maneiras de ultrapassar os limites. “Não importa os filtros, sempre há maneiras de contorná-los.”

Samson, que disse ter criado contas de vídeo de IA no TikTok e YouTube, previu que os humanos poderiam em breve descobrir difícil competir com teor falso online.

O vídeo de IA pode ser feito mais rapidamente e está se tornando mais difícil de identificar, disse ele. “Mesmo que os espectadores prefiram autenticidade, se se tornar difícil discernir, logo terá pouca vantagem”, disse Samson.

Colaborou Kevin Schaul

Folha

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *