Invasão Da Openai Em 2023 Aumentou Receio Sobre China

Invasão da OpenAI em 2023 aumentou receio sobre China – 06/07/2024 – Tec

Tecnologia

No início do ano pretérito, um hacker obteve chegada aos sistemas de mensagens internas da OpenAI, criadora do ChatGPT, e roubou detalhes sobre o design das tecnologias de lucidez sintético da empresa.

O hacker extraiu detalhes de discussões em um fórum online onde os funcionários conversavam sobre as tecnologias mais recentes da OpenAI, de combinação com duas pessoas familiarizadas com o incidente. Não acessou, porém, os sistemas onde a empresa armazena e constrói sua IA.

Executivos da OpenAI revelaram o incidente aos funcionários durante uma reunião universal nos escritórios da empresa em San Francisco, nos Estados Unidos, em abril de 2023, e informaram o recomendação de gestão, de combinação com os interlocutores, que discutiram informações sensíveis sobre a empresa sob quesito de anonimato.

Os executivos decidiram não compartilhar a notícia publicamente porque nenhuma informação sobre clientes ou parceiros havia sido roubada, disseram as duas pessoas a par do objecto.

Os executivos não consideraram o incidente uma ameaço à segurança vernáculo porque acreditavam que o hacker era uma pessoa física sem vínculos com um governo estrangeiro. A empresa não informou o FBI nem qualquer outra mando policial.

Para alguns funcionários da OpenAI, a notícia aumentou o terror de que adversários estrangeiros, porquê a China, pudessem roubar tecnologia de IA que, embora atualmente seja principalmente uma utensílio de trabalho e pesquisa, poderia concluir ameaçando a segurança vernáculo dos EUA.

Isso também levantou questões sobre se a OpenAI estava tratando a segurança de forma séria e expôs divisões dentro da empresa sobre os riscos da IA.

Posteriormente a violação, Leopold Aschenbrenner, gerente de projetos da OpenAI focado em prometer que futuras tecnologias de IA não causem danos graves, enviou um memorando ao recomendação de gestão da OpenAI argumentando que a empresa não estava fazendo o suficiente para impedir que o governo chinês e outros adversários estrangeiros roubassem seus segredos.

Aschenbrenner disse que a OpenAI o demitiu há alguns meses por vazar outras informações fora da empresa e argumentou que sua exoneração teve razões políticas. Ele fez menção à omissão em um podcast recente, mas detalhes do incidente não foram relatados anteriormente.

Ele disse que a segurança da OpenAI não é possante o suficiente para proteger contra o roubo de segredos importantes se atores estrangeiros conseguissem infiltrar-se na empresa.

“Agradecemos as preocupações que Leopold levantou enquanto estava na OpenAI, e isso não levou ao seu desligamento”, disse Liz Bourgeois, porta-voz da OpenAI.

Referindo-se aos esforços da empresa para edificar uma lucidez sintético universal (AGI, na {sigla} em inglês), uma máquina que consegue fazer tudo o que o cérebro humano consegue fazer, ela acrescentou: “Embora compartilhemos seu compromisso em edificar uma AGI segura, discordamos de muitas das alegações que ele fez desde logo sobre nosso trabalho. Isso inclui suas caracterizações de nossa segurança, principalmente esse incidente, que compartilhamos com nosso recomendação antes de ele se juntar à empresa.”

Não é irracional temer que uma invasão de uma empresa de tecnologia dos EUA possa ter vínculos com a China. No mês pretérito, Brad Smith, presidente da Microsoft, depôs no Capitólio sobre porquê hackers chineses usaram os sistemas da gigante da tecnologia para lançar um ataque grande às redes do governo federalista.

No entanto, segundo a lei federalista e da Califórnia, a OpenAI não pode impedir que pessoas trabalhem na empresa por culpa de sua nacionalidade, e pesquisadores disseram que barrar talentos estrangeiros de projetos nos EUA poderia impedir significativamente o progresso da IA nos Estados Unidos.

“Precisamos das mentes mais brilhantes trabalhando nessa tecnologia”, disse Matt Knight, dirigente de segurança da OpenAI, ao New York Times. “Isso vem com alguns riscos, e precisamos resolvê-los.”

A OpenAI não é a única empresa construindo sistemas de IA cada vez mais poderosos. Algumas delas —principalmente a Meta, dona do Facebook e Instagram— estão compartilhando seus projetos com o resto do mundo usando diretrizes de software de código ingénuo (open source).

Elas acreditam que os perigos apresentados pelas tecnologias de IA de hoje são pequenos e que compartilhar o código permite que engenheiros e pesquisadores de toda o setor identifiquem e resolvam problemas.

Os sistemas de IA de hoje, capazes de produzir textos, imagens e vídeos, podem ajudar a espalhar desinformação na internet. Eles também estão começando a substituir alguns empregos.

Empresas porquê a OpenAI e seus concorrentes Anthropic e Google adicionam proteções às suas aplicações de IA antes de oferecê-las a pessoas físicas e empresas, esperando evitar que as pessoas usem os aplicativos para espalhar desinformação ou provocar outros problemas.

Também não há muitas evidências de que as tecnologias de IA de hoje representem um risco significativo para a segurança vernáculo.

Estudos realizados pela OpenAI, Anthropic e outros no ano pretérito mostraram que a IA não é significativamente mais perigosa do que os motores de procura. Daniela Amodei, cofundadora da Anthropic e presidente da empresa, disse que sua tecnologia de IA mais recente não representaria um grande risco se seus projetos fossem roubados ou compartilhados livremente com outros.

“Se pertencesse a outra pessoa, isso poderia ser extremamente prejudicial para a sociedade? Nossa resposta é: ‘Não, provavelmente não'”, disse ela ao Times no mês pretérito. “Poderia estugar alguma coisa para um ator mal-intencionado no porvir? Talvez. É especulativo.”

Ainda assim, pesquisadores e executivos de tecnologia há muito tempo se preocupam que a IA possa um dia nutrir a geração de novas armas biológicas ou ajudar a invadir sistemas de computadores governamentais. Alguns até acreditam que poderia destruir a humanidade.

Folha

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *