Autoridades da União Europeia revelaram novas regras nesta quinta-feira (10) para regular a perceptibilidade sintético. Os criadores dos sistemas de IA mais poderosos terão que melhorar a transparência, limitar violações de direitos autorais e proteger a segurança pública.
As regras, que não serão aplicáveis até o próximo ano, surgem durante um intenso debate em Bruxelas sobre quão agressivamente regular uma novidade tecnologia vista por muitos líderes porquê crucial para o porvir sucesso econômico diante da competição com os Estados Unidos e a China. Alguns críticos acusaram os reguladores de diluir as regras para lucrar espeque da indústria.
As diretrizes se aplicam somente a um pequeno número de empresas de tecnologia porquê OpenAI, Microsoft e Google que criam a chamada IA de propósito universal. Esses sistemas sustentam serviços porquê o ChatGPT e podem indagar enormes quantidades de dados, aprender por conta própria e realizar algumas tarefas humanas.
O chamado código de conduta representa alguns dos primeiros detalhes concretos sobre porquê os reguladores da UE planejam utilizar uma lei, chamada Lei de IA, que foi aprovada no ano pretérito. As regras para sistemas de IA de propósito universal entram em vigor em 2 de agosto, embora os reguladores da UE não possam impor penalidades por não-conformidade até agosto de 2026, de conciliação com a Percentagem Europeia, o braço executivo do conjunto de 27 nações.
A Percentagem Europeia disse que o código de conduta visa ajudar as empresas a executar a Lei de IA. Empresas que concordarem com o código voluntário se beneficiariam de uma “trouxa administrativa reduzida e maior segurança jurídica”. Autoridades disseram que aquelas que não assinarem ainda teriam que provar conformidade com a Lei de IA por outros meios, o que potencialmente poderia ser mais custoso e demorado.
Não ficou imediatamente simples quais empresas adeririam ao código de condulta. Google e OpenAI disseram que estavam analisando o texto final. A Microsoft recusou-se a comentar. A Meta, que havia sinalizado que não concordaria, não teve um observação súbito. Amazon e Mistral, uma importante empresa de IA na França, não responderam a um pedido de observação.
A CCIA Europe, um grupo mercantil da indústria de tecnologia que representa empresas porquê Amazon, Google e Meta, disse que o código de conduta “impõe um ônus desproporcional aos provedores de IA”.
De conciliação com as diretrizes, as empresas de tecnologia terão que fornecer detalhamentos sobre o teor usado para treinar seus algoritmos, alguma coisa há muito tempo buscado por editores de mídia preocupados que sua propriedade intelectual esteja sendo usada para treinar os sistemas de IA. Outras regras exigiriam que as empresas realizassem avaliações de risco para ver porquê seus serviços poderiam ser mal utilizados para coisas porquê a geração de armas biológicas que representam um risco à segurança pública.
O New York Times processou a OpenAI e sua parceira, Microsoft, alegando violação de direitos autorais de teor de notícias relacionado a sistemas de IA. As duas empresas negaram as alegações do processo.
O que é menos simples é porquê a lei abordará questões porquê a disseminação de desinformação e teor prejudicial. Esta semana, o Grok, um chatbot criado pela empresa de perceptibilidade sintético de Elon Musk, xAI, compartilhou vários comentários antissemitas na plataforma social X, incluindo elogios a Adolf Hitler.
Henna Virkkunen, vice-presidente executiva da Percentagem Europeia para soberania tecnológica, segurança e democracia, disse que a política era “um passo importante para tornar os modelos de IA mais avançados disponíveis na Europa não somente inovadores, mas também seguros e transparentes”.
Nick Moës, diretor executivo da Future Society, um grupo da sociedade social focado em política de IA, disse que as empresas de tecnologia conquistaram grandes concessões. “O lobby que fizeram para mudar o código realmente resultou em eles determinarem o que é suportável fazer”, disse ele.
As diretrizes introduzidas na quinta-feira são somente uma segmento de uma lei abrangente que entrará totalmente em vigor nos próximos anos. A lei foi destinada a prevenir os efeitos mais prejudiciais da IA, mas autoridades europeias têm recentemente ponderado as consequências de regular uma tecnologia tão dinâmica e competitiva.
Líderes em todo o continente estão cada vez mais preocupados com a posição econômica da Europa frente aos Estados Unidos e à China. A Europa há muito tempo luta para produzir grandes empresas de tecnologia, tornando-se dependente de serviços de corporações estrangeiras. Tensões com a gestão Trump sobre tarifas e transacção intensificaram o debate.
Grupos que representam muitas empresas europeias instaram os formuladores de políticas a atrasar a implementação da Lei de IA, dizendo que a regulamentação ameaço retardar a inovação, colocando suas empresas em desvantagem frente à concorrência estrangeira.
“A regulamentação não deveria ser o melhor resultado de exportação da UE”, disse Aura Salla, membro do Parlamento Europeu pela Finlândia que anteriormente foi uma importante lobista da Meta em Bruxelas. “Está prejudicando nossas próprias empresas.”
