A votação do projeto de lei que pretende regular a Perceptibilidade Sintético (IA) no Brasil foi adiada em Percentagem do Senado, nesta terça-feira (3), devido à posição contrária de parlamentares da oposição sobre a exigência de que os sistemas de IA respeitem a integridade da informação e combatam a desinformação. Foi oferecido um prazo até a próxima quinta-feira (5) para que a Percentagem Peculiar criada para averiguar o tema chegue a um consenso.
“Existem ainda pontos do relatório cuja redação gerou questionamentos por segmento da oposição e do governo. Esses pontos o relator concordou que dará 48 horas para que os dois lados se manifestem e nós faremos a votação na próxima quinta-feira (5)”, explicou o presidente da Percentagem, o senador Carlos Viana (Podemos-MG).
De harmonia com o relator, o senador Eduardo Gomes (PL-TO), parlamentares da oposição são contrários aos trechos do projeto que exigem a integridade da informação produzida por lucidez sintético.
O cláusula 2º do projeto de lei 2.338 de 2023, de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), determina que o desenvolvimento e o uso dos sistemas de IA têm porquê fundamento a “integridade da informação mediante a proteção e a promoção da confiabilidade, precisão e consistência das informações”.
Em outro trecho, o projeto de lei determina que, antes de disponibilizar um sistema de IA no mercado, é preciso provar, por meio de testes, que o sistema pode identificar e reduzir riscos à integridade da informação e contra “a disseminação de desinformação e de discursos que promovam o ódio ou a violência”.
Debate
Assim porquê ocorreu no debate sobre o chamado projeto de lei das fake news durante a tramitação na Câmara dos Deputados, parlamentares de oposição têm argumentado que a inclusão desses dispositivos poderia levar à repreensão de conteúdos na internet.
O senador Marcos Rogério (PL-RO) apresentou emenda para suprimir a exigência de integridade da informação em sistemas de IA, alegando que a domínio criada para supervisionar a IA no Brasil teria o poder de definir quais conteúdos as plataformas teriam que remover.
Ao realizar modificações no texto, o relator Eduardo Gomes afirmou que “o noção de integridade da informação foi revisto para deixar explícito que é instrumental para a promoção da liberdade de frase, e não ser instrumentalizado para fins de repreensão ou violação a outros direitos fundamentais”.
O técnico em recta do dedo Alexandre Gonzales, que atua na Coalizão Direitos na Rede, organização que reúne 50 entidades que militam por direitos na internet, destacou à Escritório Brasil que o argumento de que o combate à desinformação é repreensão não é válido porque a estudo da integridade da informação não seria feita em casos ou perfis específicos com risco de repreensão, mas no sistema de IA porquê um todo.
“Essa segmento do projeto exige por segmento das grandes empresas, por meio da domínio que vai coordenar esse processo de governança e regulação, que elas apresentem um mínimo de avaliação de relatório sobre porquê elas percebem que os sistemas delas estão atuando em relação a uma série de possíveis riscos”, explicou.
Ainda nesta terça-feira (3), o relator do projeto Eduardo Gomes excluiu os sistemas de IA usados por plataformas digitais, as chamadas big techs, do rol de IAs consideradas de cimo risco.
Projeto
De autoria do presidente do Senado, Rodrigo Pacheco (PSD/MG), o texto estabelece os princípios fundamentais para o desenvolvimento e uso de IA. Ele define que a tecnologia deve ser transparente, segura, confiável, moral, livre de vieses discriminatórios, respeitando os direitos humanos e valores democráticos. Outrossim, o projeto exige que sejam contemplados o desenvolvimento tecnológico, a inovação, a livre iniciativa e a livre concorrência.
O projeto ainda define quais sistemas de IA devem ser considerados de cimo risco e, por isso, precisam de uma regulação mais rígida, além de proibir o desenvolvimento de tecnologias que causem danos à saúde, segurança ou outros direitos fundamentais.
Também proíbe que o Poder Público crie sistemas que classifiquem ou ranqueiem pessoas com base no comportamento social para entrada a bens e serviços e políticas públicas “de forma ilegítima ou desproporcional” ou que facilitem o agravo ou exploração sexual de crianças e adolescentes.
Governança
Duas estruturas de governança para regulação da tecnologia estão previstas para revistar a emprego da legislação, com a geração do Sistema Vernáculo de Regulação e Governança de IA (SIA), responsável por “trenar conhecimento normativa, regulatória, fiscalizatória e sancionatória plena para desenvolvimento, implementação e uso de sistemas de lucidez sintético para atividades econômicas em que não haja órgão ou ente regulador setorial específico”.
Caberá ao SIA ainda regular a classificação dos sistemas de IA de cimo risco, aqueles que devem ter um monitoramento mais rígido, incluindo análises permanentes do impacto algorítmico, ou seja, uma avaliação de porquê o algoritmo está atuando.
O outro órgão é o Recomendação de Cooperação Regulatória Permanente (CRIA), ligado ao Ministério do Trabalho, e que deve regular as relações trabalhistas impactadas por IA. Entre os objetivos do CRIA está o de valorizar as negociações coletivas, potencializar os efeitos positivos da IA aos trabalhadores, além de “mitigar os potenciais impactos negativos aos trabalhadores, em privativo os riscos de deslocamento de serviço e oportunidades de curso relacionadas a IA”.
Além dessas estruturas ligadas ao Poder Executivo, os agentes que trabalhem com IA deverão, de harmonia com o projeto, ter estruturas internas de governança e estudo dos riscos potenciais que podem ser causados pelas ferramentas desenvolvidas. Esses agentes privados também precisarão qualificar os sistemas de IA de harmonia com os níveis de risco, com regras mais rígidas de emprego e monitoramento para os sistemas considerados de cimo risco.