Palavras, imagens, música e agora vídeo: a lucidez sintético (IA) generativa parece uma utensílio quase mágica para gerar teor novo e original em quantidades ilimitadas. No entanto, para seus detratores, é uma farsa, devorando trabalhos humanos protegidos por direitos autorais e regurgitando imitações pálidas e derivativas. Quem está notório? Em 2025, uma combinação de litígios e legislações começará a fornecer algumas respostas.
Comece com os litígios. Representantes de quase todas as indústrias criativas apresentaram queixas de violação de direitos autorais contra empresas de IA generativa por usarem seu material, sem pagamento ou permissão, para treinar seus modelos de IA. A maior secção dessa disputa judicial está nos Estados Unidos, onde OpenAI e Microsoft estão sendo processadas pelo New York Times, e a Anthropic está sob objecção de partes que incluem o Universal Music Group. Na Grã-Bretanha, a Stability AI está sendo processada pela Getty Images. Todas as empresas de tecnologia negam irregularidades.
Essas e outras disputas podem ser resolvidas fora dos tribunais: alguns veem os processos porquê uma tática de negociação por secção das empresas de teor para fazer as empresas de tecnologia pagarem. A OpenAI fez pelo menos 29 acordos de licenciamento com plataformas e editoras, de Reddit ao Financial Times, de conformidade com uma enumeração de Peter Brown do Tow Centre for Do dedo Journalism da Universidade de Columbia. (O Economist Group, a empresa-mãe da revista Economist, não tomou uma posição pública.) O valor dos acordos da OpenAI já ultrapassa US$ 350 milhões (R$ 2,2 bilhões), segundo a estimativa de Brown. Um período conturbado nos tribunais nos próximos meses pode fazer esse valor aumentar.
Se os reclamantes resistirem a um conformidade, precedentes legais serão estabelecidos em 2025 que podem moldar a indústria tecnológica por anos. Nos Estados Unidos, as empresas de tecnologia são ligeiramente favoritas para vencer. Sua resguardo de “uso justo” (essencialmente, que material protegido por direitos autorais pode ser usado sem permissão explícita em alguns casos) já as livrou de problemas em casos anteriores de direitos autorais, porquê uma queixa lítico contra o Google Books há quase uma dezena.
No entanto, “se chegarem a um júri, qualquer coisa é provável”, adverte Matthew Sag da Escola de Recta da Universidade de Emory. A Stability AI enfrenta um teste mais difícil: a lei de direitos autorais da Grã-Bretanha é um pouco mais rígida que a dos Estados Unidos, e a Getty também está alegando violação de marca registrada, depois que algumas das imagens geradas pela Stability reproduziram seu logotipo.
Enquanto os tribunais deliberam sobre as leis existentes, os legisladores debaterão novas, em pessoal sobre “deepfakes”, que usam IA para inserir a imagem de uma pessoa em uma foto ou vídeo existente, muitas vezes de natureza pornográfica. Isso preocupa pais (cujos filhos estão sendo assediados com aplicativos de “nudificação”), celebridades (cujas imagens estão sendo roubadas por golpistas) e políticos (que se tornaram alvos de desinformação alimentada por IA). Em março, o estado americano do Tennessee aprovou a Lei de Segurança de Imagem e Voz de Semelhança (ELVIS), para proteger artistas de terem sua imagem ou voz usadas ilegalmente. A Califórnia aprovou leis para impedir deepfakes políticos.
A lei de direitos autorais também pode ser reformada mundo afora. A União Europeia, Japão, Israel e Singapura já introduziram exceções para permitir o uso de material protegido por direitos autorais, sem permissão ou pagamento, no treinamento de modelos de IA, pelo menos em algumas circunstâncias. Alguns no Vale do Silício temem que o investimento em tecnologia possa fluir para longe dos Estados Unidos em direção a jurisdições mais relaxadas. No entanto, até agora, nenhum país parece disposto a se tornar um oeste selvagem regulatório. O Japão parece propenso a estreitar as exceções que estabeleceu, para proteger os interesses de direitos autorais. A maioria dos países está se unindo em torno de uma posição moderada: uma “corrida para o meio” é mais provável, acredita Sag.
O compromisso emergente é que as empresas de tecnologia terão que encontrar maneiras de permitir que os detentores de direitos autorais optem por não ter seu teor usado para treinamento. As empresas de tecnologia também terão que tornar as ferramentas de IA melhores em mourejar com conceitos abstratos sem vomitar material protegido por direitos autorais (por exemplo, ser capaz de riscar um super-herói genérico sem reproduzir imagens do Superman). Isso pode se mostrar mais fácil de proferir do que fazer. Não se surpreenda se o próximo ano for um em que a IA gere mais perguntas do que os reguladores podem responder.