A OpenAI está construindo uma equipe internacional de lobistas em procura influenciar políticos e reguladores que aumentam o escrutínio sobre inteligências artificiais poderosas.
A startup sediada em São Francisco, nos Estados Unidos, disse ao Financial Times que expandiu o número de funcionários em sua equipe de assuntos globais de três no início de 2023 para 35 desde o inicio. A empresa pretende aumentar esse número para 50 até o final de 2024.
A iniciativa ocorre à medida que os governos exploram e debatem legislação em torno da segurança da IA, que corre o risco de limitar o propagação da startup e o desenvolvimento de seus modelos de ponta, porquê o ChatGPT.
“Não estamos abordando isso a partir de uma perspectiva de que precisamos somente entrar lá e anular regulamentações, porque não temos o objetivo de maximizar o lucro; temos o objetivo de prometer que a perceptibilidade sintético universal beneficie toda a humanidade”, disse Anna Makanju, vice-presidente de assuntos governamentais da OpenAI, referindo-se ao ponto em que as máquinas têm habilidades cognitivas equivalentes às dos humanos.
Embora represente uma pequena segmento dos 1.200 funcionários da OpenAI, o departamento de assuntos globais é a unidade mais internacional da empresa, estrategicamente posicionada em locais onde a legislação de IA está avançada. Isso inclui alocar funcionários na Bélgica, Reino Uno, Irlanda, França, Cingapura, Índia, Brasil e EUA.
No entanto, a OpenAI ainda está detrás das suas rivais big tech nesse alcance. De entendimento com arquivos públicos nos EUA, o Meta gastou um recorde de US$ 7,6 milhões (tapume de R$ 40,8 milhões) interagindo com o governo estadunidense no primeiro trimestre deste ano, enquanto o Google gastou US$ 3,1 milhões (R$ 16,6 milhões) e a OpenAI US$ 340 milénio (R$ 1,82 milhões).
Em relação à resguardo específica da IA, o Meta nomeou 15 lobistas, o Google tem cinco, enquanto a OpenAI tem somente dois.
“Ao entrar, [o ChatGPT tinha] 100 milhões de usuários [mas a empresa tinha] três pessoas para mourejar com políticas públicas”, disse David Robinson, dirigente de planejamento de políticas da OpenAI, que ingressou na empresa em maio do ano pretérito depois uma curso na liceu e consultoria para Mansão Branca em sua política de IA.
“Chegou ao ponto em que haveria alguém de cume escalão que gostaria de ter uma conversa, e não havia ninguém que pudesse atender o telefone”, acrescentou.
No entanto, a unidade de assuntos globais da OpenAI não lida com alguns dos casos regulatórios mais contenciosos. Essa tarefa cabe à sua equipe jurídica, que lida com questões relacionadas à revisão pelos reguladores do Reino Uno e EUA sobre sua parceria de US$ 18 bilhões (R$ 96,8 bilhões) com a Microsoft.
O time jurídico também é responsável por mourejar com a investigação da Percentagem de Valores Mobiliários dos EUA sobre se o presidente-executivo Sam Altman enganou investidores durante seu breve retraimento pelo parecer em novembro e a investigação de proteção ao consumidor da Percentagem Federalista de Transacção estadunidense sobre a empresa.
Em vez disso, os lobistas da OpenAI se concentram na disseminação da legislação de IA. O Reino Uno, os EUA e Cingapura estão entre muitos países lidando com a forma de governar a IA, consultando de forma próxima a OpenAI e outras empresas de tecnologia sobre regulamentações propostas.
A empresa esteve envolvida nas discussões em torno da Lei de Perceptibilidade Sintético da União Europeia, aprovada levante ano, um dos projetos de lei mais avançados na procura por regular modelos poderosos de IA.
A OpenAI foi uma das empresas de IA que argumentaram sobre porquê alguns de seus modelos de IA não deveriam estar entre os que representam um “cume risco” nos primeiros rascunhos da Lei e sujeitos a regras mais rígidas, de entendimento com três pessoas envolvidas nas negociações. Apesar desse esforço, os modelos mais capazes da empresa estarão sob a jurisdição da legislação.
A OpenAI também se opôs à pressão da UE para examinar todos os dados fornecidos a seus modelos fundamentais, de entendimento com pessoas familiarizadas com as negociações.
A empresa disse ao Financial Times que os dados de pré-treinamento —informações usadas para dar a grandes modelos de linguagem uma compreensão ampla de linguagem ou padrões— devem estar fora do escopo da regulamentação, pois era uma maneira inadequada de entender as saídas de um sistema de IA. Em vez disso, propôs que o foco deveria estar nos dados de pós-treinamento usados para ajustar modelos para uma tarefa específica.
A UE decidiu que, para sistemas de IA de cume risco, os reguladores ainda podem solicitar aproximação aos dados de treinamento para prometer que estejam livres de erros e vieses.
Desde a aprovação da lei na UE, a OpenAI contratou Chris Lehane, que trabalhou para o presidente Bill Clinton, na campanha presidencial de Al Gore e foi dirigente de políticas do Airbnb. Lehane trabalhará em estreita colaboração com Makanju e sua equipe.
A OpenAI também recentemente contratou Jakob Kucharczyk, ex-líder de competição do Meta. Sandro Gianella, dirigente de políticas e parcerias europeias, ingressou em junho do ano pretérito depois trabalhar no Google e Stripe, enquanto James Hairston, dirigente de políticas e parcerias internacionais, ingressou no Meta em maio do ano pretérito.
A empresa esteve recentemente envolvida em uma série de discussões com formuladores de políticas nos EUA e em outros mercados em torno do protótipo Voice Engine da OpenAI, que pode clonar e gerar vozes personalizadas, levando a empresa a restringir seus planos de lançamento depois preocupações com os riscos de porquê poderia ser usado no contexto das eleições globais deste ano.
A equipe tem realizado workshops em países que enfrentam eleições levante ano, porquê México e Índia, assim porquê publicando orientações sobre desinformação. Em países autocráticos, a OpenAI concede individual aos seus modelos para “pessoas confiáveis” em regiões onde considera que não é seguro lançar os produtos.
Um funcionário do governo que trabalhou em estreita colaboração com a OpenAI disse que uma preocupação dissemelhante para a empresa era prometer que quaisquer regras fossem flexíveis no horizonte e não se tornassem obsoletas com novos avanços científicos ou tecnológicos.
A OpenAI espera resolver algumas reveses da era das redes sociais, o que Makanju disse ter levado a uma “suspicácia universal das empresas do Vale do Silício”.
“Infelizmente, as pessoas frequentemente veem a IA com a mesma lente”, acrescentou. “Passamos muito tempo garantindo que as pessoas entendam que essa tecnologia é bastante dissemelhante, e as intervenções regulatórias que fazem sentido para ela serão muito diferentes.”
No entanto, algumas figuras da indústria são críticas à expansão do lobby da OpenAI.
“Inicialmente, a OpenAI recrutou pessoas profundamente envolvidas na política de IA e especialistas, enquanto agora estão somente contratando lobistas de tecnologia comuns, o que é uma estratégia muito dissemelhante”, disse uma pessoa que se envolveu diretamente com a OpenAI na geração de legislação.
“Eles só querem influenciar os legisladores da mesma forma que as Big Techs fizeram por mais de uma dez.”
Robinson, dirigente de planejamento da OpenAI, disse que a equipe de assuntos globais tem metas mais ambiciosas. “A missão é segura e amplamente benéfica, e o que isso significa? Significa gerar leis que não somente nos permitam inovar e trazer tecnologia benéfica para as pessoas, mas também resultar em um mundo onde a tecnologia seja segura.”