O projeto de lei 2338/2023, que regulamenta o uso da lucidez sintético no país, deve ser votado em percentagem no Senado na terça-feira (9), sob ataque entupido das big techs. A votação já foi adiada inúmeras vezes e recebeu uma enxurrada de emendas de última hora dos senadores Marcos Ponte (PL-SP), Marcos Rogério (PL-RO), Carlos Portinho (PL-RJ), Izalci Lucas (PL-DF) e Laercio Oliveira (PP-SE), alinhados às plataformas.
As principais críticas referem-se ao pagamento de direitos autorais por teor usado para treinar modelos de IA, a classificação de sistemas de recomendação uma vez que de “cimalha risco”, o que exigirá que passem por auditorias para medir impacto potencial, e o estabelecimento de obrigações de transparência.
“Nós estivemos totalmente abertos a discussões com todos os setores. Mas algumas pessoas não estão interessadas em ajustes no texto, elas são contra a regulamentação e apostam no caos”, disse à Folha o senador Eduardo Gomes (PL-TO), relator do projeto, de autoria do presidente do Senado, Rodrigo Pacheco.
“A não regulamentação que temos hoje é uma forma de regulamentação –e não está funcionando para, por exemplo, atrair investimentos para setor”, disse o senador que, durante reunião nesta quinta-feira (4), criticou o que chamou de “protelação e boicote” contra a lei.
Em seguida uma maratona de negociações que varou a madrugada, Gomes costurou uma novidade versão para o projeto e apresentou à percentagem. O texto foi enxugado, e foram diluídas as obrigações das empresas de IA de explicar a usuários o funcionamento dos algoritmos. Também foram feitas mudanças que tornam mais difícil enquadrar sistemas de IA na categoria risco excessivo, que veda seu funcionamento.
Mas, apesar das pressões das big techs, foi mantida a previsão de pagamento de direitos autorais para uso de teor em treinamento de modelos de IA, uma vitória dos artistas.
Empresas de lucidez sintético e organizações uma vez que a Abes (Associação Brasileira de Empresas de Software) e a Abese (Associação Brasileira das Empresas de Sistemas Eletrônicos de Segurança) divulgaram uma missiva afirmando que o texto não estava “maduro” o bastante para ser votado.
Gomes ressaltou que o texto está em discussão há dois anos e já foi tema de mais de século audiências públicas.
Segundo Gomes, a Percentagem Temporária Interna sobre Lucidez Sintético (CTIA) deve votar o texto no dia 9, e o projeto segue para votação em plenário na semana do dia 15 –antes do recesso parlamentar.
“Não estamos maduros para tratar da secção de direitos autorais, poderíamos muito muito ter um projeto de IA sem tratar desse ponto”, disse em audiência Felipe França, diretor do Parecer Do dedo, que representa as principais plataformas de internet.
França defende o PL 21/2020 da Câmara, relatado pela deputada Luísa Canziani (PSD-PR), que libera o uso de dados públicos para treinamento de modelos de IA.
Durante audiência pública no Senado, Igor Luna, consultor da Câmara Brasileira da Economia Do dedo, que representa empresas uma vez que Amazon, Google, Facebook, TikTok e X (ex-Twitter), ressaltou a dificuldade de calcular o valor dos direitos autorais a serem pagos e disse que o montante será imprevisível.
“EUA, Singapura, Japão e Israel permitiram treinamento de IA a partir de qualquer informação publicamente disponível. Esses países escolheram o progresso científico”, disse.
Em vídeo postado no Instagram, Fabro Steibel, diretor-executivo do ITS (Instituto de Tecnologia e Sociedade), afirmou que o PL pode impedir o desenvolvimento de grandes modelos de linguagem em português.
“O projeto propõe que quem for fazer o treinamento dessa LLM com material em português terá que remunerar recta autoral. Remunerar recta autoral é muito importante, mas, da forma que está ali, torna quase inviável que pequenas e médias e startups desenvolvam esse tipo de tecnologia”, disse Steibel. Segundo ele, há o risco de “a gente permanecer sem lucidez sintético que fale as nuances do português”.
Ele defende o chamado “fair use” para treinar modelos de IA em português, mesmo aqueles com fins comerciais, porque entende que se trata de interesse público. O fair use permite que se use teor sem pagamento de direitos autorais, desde que sejam unicamente pequenos trechos, que haja transformação e que não concorra com o teor original.
Nos Estados Unidos, o New York Times está processando a OpenAI por ter usado o teor do jornal para treinar seus modelos sem pagamento de direitos. A OpenAI argumenta que se trata de fair use.
Steibel acha que a cobrança de direitos autorais deveria se restringir às grandes empresas de IA, e não às pequenas e médias.
A Coalizão Direitos na Rede, que reúne inúmeras entidades da sociedade social, defende a lei e diz que “atores contrários” são aqueles que “justamente se beneficiam deste cenário sem regras harmonizadas e previsibilidade jurídica, em detrimento da proteção de direitos humanos”.
A Febraban se opunha ao texto, mas passou a concordar, posteriormente ser retirado da lista de risco excessivo o uso de IA para avaliação da capacidade de endividamento e nota de crédito.
Já a CNI, que divulgou relatório sobre o ponto na quinta, acredita que a proposta tem escopo muito mais grande que a de outros exemplos internacionais e pode sufocar a inovação.
Bruno Bioni, diretor-fundador do Data Privacy Brasil e consultor técnico do gabinete de Eduardo Gomes, acredita que o texto está equilibrado. “Uma primeira [proposta, o PL da Câmara] muito econômica –equivalente à desregular– e uma segunda que era fortemente prescritiva [dos juristas]. Esse novo texto é uma espécie de meio do caminho.”