Sem a imposição de regras que protejam o recta de responsável por segmento do Estado, “os sistemas de lucidez sintético tendem no longo prazo a matar a produção de conhecimento, representação e informação profissional”, diz o secretário de Políticas Digitais da Secretaria de Informação da Presidência, João Brant.
Brant representa o governo nas negociações sobre o projeto de lei 2338/2023, que propõe uma regulação sobre o uso de lucidez sintético no Brasil. Ele compareceu nesta quinta-feira (11) ao Fórum Internacional do Marco Regulatório da IA, realizado na Campus Party em São Paulo.
Com o dilação da votação na terça-feira, depois mediação da CNI (Confederação Vernáculo da Indústria) em obséquio das big techs, o governo avalia que não há condições de votar o projeto antes do recesso parlamentar, com início em 18 de julho. “Ficou simples, que a crítica do projeto ficaria para agosto”, disse Brant à Folha.
O trecho da proposta que trata da proteção de direitos autorais de empresas jornalísticas, escritores e criadores é um dos que geram mais discórdia, uma vez que o desenvolvimento de sistemas de IA demanda quantidades massivas de dados. Até agora, as empresas de tecnologia, na maioria dos casos, adquiriram essas informações sem pedir autorização ou propor remuneração aos donos.
“O que está acontecendo é que os jornais, designers e artistas estão perdendo espaço na internet, e ficando sem ter uma vez que remunerar até um cafezinho. A discussão é sobre a sustentabilidade da integridade da informação”, diz o secretário.
O governo, segundo Brant, quer traçar um padrão de microrremuneração compensatória pelo uso de dados, em que cada item ou arte usado gere um pequeno pagamento por segmento da empresa de tecnologia.
Dessa forma, haveria um estabilidade, de concordância com o governo: as startups poderiam desenvolver modelos menores com menos verba, e as big techs poderiam desembolsar mais para treinar grandes modelos de linguagem, uma vez que o Gemini do Google e o ChatGPT da OpenAI. Outrossim, o padrão garantiria remuneração de criadores de teor de menor graduação.
Hoje, a OpenAI, de um lado, tem fechado acordos individuais com grandes organizações de prelo dos Estados Unidos e da Europa, envolvendo pagamentos na lar dos milhões de dólares e assistência técnica no que toca à lucidez sintético.
Executivos de Google e Meta, de outro, defendem a possibilidade de que conteúdos disponíveis na internet sejam usados gratuitamente para treinar modelos de IA (lucidez sintético), sob a exigência de “fair use” —uso sem remuneração desde que sejam unicamente pequenos trechos, que haja transformação e que não concorra com o teor original.
Brant diz que a lei brasileira não define “fair use”, e, sim, determina exceções que não abrangem o treinamento de modelos de lucidez sintético. “Nós queremos definir regras e tirar essa situação de uma zona cinzenta.”
Para o diretor-presidente do NIC.br (Núcleo de Informação e Coordenação do Ponto BR), Demi Getschko, publicado também uma vez que o pai da internet no Brasil, a discussão de remuneração direta “cria atrito” entre empresas de tecnologia e produtores de teor.
“O melhor padrão seria uma vez que o europeu, em que o MDA [Ato de Mercados Digitais] determina uma taxação sobre as big techs, e o Estado depois distribui esse verba para manter um estabilidade”, afirma Getschko.
Uma vez que o MDA já trata do tema, a regulação de IA europeia se limita a dar aos criadores o recta de pedir que seus dados, sem a remuneração adequada, não sejam usados no desenvolvimento de uma lucidez sintético.
No Brasil, porém, o projeto de lei 2.804/2024, que versa sobre regulação econômica de big techs, ainda está em estágios iniciais de tramitação.
Outros países uma vez que Japão e Singapura não impõem limitações sobre o uso de dados em tamanho para treinar modelos de lucidez sintético.
A votação da regulação de IA foi adiada depois a CNI apresentar nota técnica de 18 páginas crítico ao PL 2338/2023. O texto seria, para a entidade, “um padrão regulatório com amplitude e rigor sem precedente, o que coloca o país sob o risco de suportar um isolamento tecnológico com impacto negativo sobre a sociedade uma vez que um todo e sobre a competitividade das atividades econômicas”.
Uma das considerações da indústria, segundo apurou a Folha, é a prenúncio de algumas big techs de não instalarem data centers no Brasil caso a legislação seja aprovada na versão atual. As empresas vêm afirmando que o país seria um lugar ideal para instalar data centers, que têm supino consumo energético –e o Brasil é grande produtor de vigor limpa.
Brant argumenta que a CNI não representa todos os setores da economia brasileira. “Sem regulação o Brasil perde, e só as big techs ganham.”