Eua Investigam Monopólio Na Inteligência Artificial 06/06/2024 Tec

Entenda em sete pontos como a Europa pretende regular a IA – 07/06/2024 – Tec

Tecnologia

A novidade Lei da União Europeia sobre IA (lucidez sintético), adotada em maio e que começa a ser aplicável em 2025, é a primeira a responsabilizar as empresas pelos efeitos de sistemas de IA de grande porte e uso universal.

Críticos, no entanto, dizem que o conjunto adota medidas precocemente, e que reguladores só devem intervir se necessário.

Entenda em sete pontos a regulação da tecnologia na Europa.

Por que a regulação da IA é necessária?

Reguladores em todo o mundo encontraram uma série de questões para se preocupar com o surgimento da lucidez sintético.

Eles devem intervir em algoritmos que podem enviesar ou distorcer decisões que afetam a vida cotidiana de bilhões de pessoas? E quanto ao risco de que chatbots, porquê o ChatGPT, possam potencializar a produção de desinformação ou levar ao uso indevido de grandes quantidades de dados pessoais? E o que eles devem fazer sobre os avisos de que os computadores poderiam em breve atingir um nível de lucidez tal que escapariam ao controle de seus criadores —com potenciais consequências graves para a humanidade?

A tecnologia está avançando tão rapidamente que ainda não houve um consenso sobre uma agenda regulatória, embora o foco em ambos os lados do Atlântico tenha se concentrado cada vez mais nos sistemas de IA mais poderosos e de uso universal.

Desenvolvidos por empresas porquê OpenAI, Google e Anthropic, e conhecidos porquê modelos fundamentais, esses sistemas estão por trás de uma ampla gama de aplicativos de diferentes empresas, impactando a sociedade e a economia.

Quais questões os reguladores estão analisando primeiro?

A União Europeia estava muito encaminhada para finalizar uma Lei sobre IA inovadora que controlaria, ou até mesmo proibiria, usos de IA tidos porquê “de eminente risco” —porquê tomar decisões em candidaturas de tarefa, pedidos de empréstimos ou tratamentos de saúde. Portanto, o ChatGPT, chatbot de IA generativa da OpenAI disponível gratuitamente, virou uma febre.

Os legisladores rapidamente ajustaram seus planos, estabelecendo novas regras que forçarão as empresas a propalar em que dados os modelos fundamentais, porquê o usado no ChatGPT, foram treinados.

Os criadores dos modelos mais poderosos, sobre os quais Bruxelas afirma que poderiam simbolizar riscos sistêmicos, enfrentarão requisitos adicionais, porquê a urgência de determinar e mitigar os riscos em seus modelos e relatar quaisquer incidentes graves.

A lei, adotada em maio e que começa a ser aplicável em 2025, também criou um AI Office poderoso encarregado de estabelecer os padrões que os sistemas de IA avançados devem atender.

No entanto, Patrick Van Eecke, codiretor da espaço de cibersegurança, dados e privacidade do escritório de advocacia Cooley, disse que Bruxelas agiu cedo demais ao tentar regular uma tecnologia que ainda é “um branco em movimento”, refletindo uma tendência a regulações precipitadas. “Gostamos de regular a veras antes mesmo de ela se tornar veras”, disse, ecoando uma visão generalidade no meio de IA.

Muitos executivos de tecnologia dos EUA têm uma explicação dissemelhante. Eles veem a pressa de Bruxelas em regular diretamente os sistemas de IA mais poderosos porquê uma medida protecionista deliberada da UE, impondo limitações a um grupo de empresas principalmente dos Estados Unidos que dominam o setor.

Regulação será um padrão para o resto do mundo?

Isso é o que aconteceu com a legislação de proteção de dados do conjunto, e é uma provável consequência que preocupa as empresas de tecnologia dos EUA.

Os defensores da Lei da UE dizem que ela será aplicada de forma maleável para refletir padrões em evolução e avanços tecnológicos. Mas os críticos dizem que a experiência mostra que Bruxelas adota uma abordagem mais dogmática —e que regras estabelecidas agora poderiam limitar a evolução da tecnologia.

Algumas empresas europeias concordam. Em uma missiva à Percentagem Europeia em 2023, 150 grandes empresas europeias alertaram que a lei poderia prejudicar a economia do conjunto ao impedir que as empresas locais usem livremente tecnologias importantes de IA.

Empresas de IA querem ser reguladas?

O setor de IA aprendeu com a reação contra as redes sociais que não vale a pena evitar a regulação de tecnologias que podem ter um impacto social e político significativo.

Mas isso não significa que eles gostem do que está planejado pela UE. Sam Altman, CEO da OpenAI e um grande padroeiro da regulação da IA, disse ao FT que sua empresa pode ter que se retirar completamente da UE se as regras finais sobre IA forem muito rigorosas.

A polêmica que suas palavras provocaram o levou rapidamente a recuar, mas, nos bastidores, as preocupações dos EUA permanecem.

A disposição das grandes empresas de tecnologia em pedir regulação também provocou suspeitas de que elas veem isso porquê uma maneira de solidar sua posição no mercado de IA. Custos mais altos e burocracia poderiam dificultar a ingresso de novos concorrentes.

Qual é a escolha à abordagem da UE?

Antes de resolver sobre novas leis, muitos países estão analisando de perto porquê suas regulações existentes se aplicam a aplicativos alimentados por IA.

Nos EUA, por exemplo, o FTC (Federalista Trade Commission) abriu uma investigação contra o ChatGPT a partir de competências já existentes.

Uma de suas preocupações é que o ChatGPT esteja coletando dados pessoais e às vezes os utilizando para gerar informações falsas e prejudiciais sobre pessoas comuns. Legisladores dos EUA também iniciaram um grande escrutínio da IA para elecencar os prós e contras da tecnologia.

O líder da maioria no Senado dos EUA, Chuck Schumer, pediu uma série de relatórios e fóruns de especialistas para os comitês mais importantes para ajudar os senadores a resolver quais aspectos da IA podem precisar de regulação.

Holly Fechner, codiretor do grupo de tecnologia do escritório de advocacia Covington & Burling, disse que o consenso no Congresso dos EUA em relação à competição com a China torna a abordagem de Schumer “uma mensagem vencedora —e sinaliza que os EUA estão seguindo em uma direção dissemelhante da Europa”.

No entanto, assim porquê Bruxelas, Washington também começou a impor requisitos sobre os modelos mais poderosos.

Em uma ordem executiva adotada no final de 2023, a Vivenda Branca sob Biden exigiu que empresas que criam sistemas poderosos de uso duplo —ou seja, aqueles que também podem ter uso militar— divulgassem as capacidades de seus sistemas aos responsáveis, ao mesmo tempo em que promoviam formas de estabelecer padrões e diretrizes para porquê tais modelos são treinados, testados e monitorados.

Embora menos rigorosa que a novidade lei da UE, a ordem executiva foi a primeira tentativa abrangente nos EUA de mourejar com a IA.

A corrida pela IA será um perigoso campo de guerra sem regulação?

Muitas empresas de tecnologia dizem que o desenvolvimento da IA deve refletir os primeiros dias da internet: os reguladores se abstiveram naquela era, permitindo que a inovação florescesse, e só intervieram mais tarde, conforme necessário.

Já existem sinais de que novos padrões do setor e acordos sobre as melhores práticas em IA estão começando a se firmar, mesmo sem regulamentação explícita.

Nos EUA, por exemplo, a indústria tem trabalhado com o National Institute for Standards and Technology [Instituto Nacional de Padrões e Tecnologia] na codificação das melhores maneiras de projetar, treinar e implementar sistemas de IA.

A pedido da Vivenda Branca, um grupo de empresas líderes em IA assinou no ano pretérito um conjunto de compromissos voluntários.

No entanto, críticos alertam que um fluxo de capital na indústria de IA e avaliações em subida para startups levaram ao desenvolvimento desordenado da tecnologia, independentemente dos riscos.

Em um dos sinais mais claros das tensões que isso criou dentro das empresas de tecnologia, Sam Altman, CEO da OpenAI, foi deposto pelo juízo da empresa em 2023 devido a preocupações com sua liderança, antes de um concórdia entre os funcionários levá-lo a ser reintegrado cinco dias depois.

Outros que alertaram sobre os perigos de uma corrida desenfreada na IA —porquê Elon Musk— também parecem ter deixado de lado suas preocupações e se juntado a ela.

Chance de a IA destruir a humanidade não é motivo para regulá-la?

Ninguém na indústria de tecnologia acredita que os sistemas de IA atuais representem uma prenúncio existencial para a humanidade, e não há concórdia sobre quando —ou se— a tecnologia poderia atingir esse ponto.

Mas, no ano pretérito, uma missiva ocasião assinada por muitos especialistas pediu uma pausa de seis meses no desenvolvimento de sistemas mais avançados para permitir tempo para desenvolver novos protocolos de segurança.

Embora os governos tenham começado a considerar essa questão, seriam necessários novos acordos internacionais para tentar controlar a disseminação de uma IA perigosa.

Mesmo assim, tais esforços podem ser impraticáveis, dada a ampla disponibilidade dos recursos computacionais e conjuntos de dados necessários para treinar sistemas de IA.

Por enquanto, as mesmas empresas que estão liderando o desenvolvimento de IAs afirmam também estar na vanguarda de tentar contê-la.

A OpenAI disse em 2023 que estava criando uma equipe interna para iniciar a pesquisar maneiras de controlar computadores ‘superinteligentes’, que ela acredita que poderiam surgir nesta dez.

Mas, menos de um ano depois, a equipe foi desfeita —e uma das pessoas que a liderou acusou a empresa de estar mais interessada em edificar “produtos brilhantes” do que em gerar uma cultura real em torno da segurança da IA.

Folha

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *