Cientistas pioneiros que encabeçaram o desenvolvimento de IA (perceptibilidade sintético) estão alertando que os países devem produzir um sistema global de supervisão para verificar os riscos potencialmente graves representados pela tecnologia em rápido desenvolvimento.
O lançamento do ChatGPT e uma série de serviços semelhantes que podem produzir textos e imagens sob comando mostraram uma vez que a IA está avançando de maneiras poderosas. A corrida para comercializar a tecnologia rapidamente a trouxe das margens da ciência para smartphones, carros e salas de lição, e governos de Washington a Pequim foram forçados a desenredar uma vez que regulá-la e aproveitá-la.
Em uma enunciação na segunda-feira (16), um grupo de influentes cientistas de IA expressou preocupações de que a tecnologia que ajudaram a erigir pode promover sérios danos. Eles alertaram que, em questão de anos, a IA pode superar as capacidades de seus criadores e que “a perda de controle humano ou o uso malicioso desses sistemas poderia levar a resultados catastróficos para toda a humanidade.”
Se os sistemas de IA em qualquer lugar do mundo desenvolvessem essas habilidades hoje, não há um projecto para contê-los, disse Gillian Hadfield, estudiosa do recta e professora de ciência da computação e governo na Universidade Johns Hopkins.
“Se tivéssemos qualquer tipo de catástrofe daqui a seis meses, se detectássemos que há modelos que estão começando a se autoaperfeiçoar autonomamente, quem você vai invocar?”, perguntou Hadfield.
De 5 a 8 de setembro, ela e outros cientistas de todo o mundo estiveram em Veneza para discutir tal projecto na terceira reunião dos Diálogos Internacionais sobre Segurança de IA, organizada pelo Fórum de IA Segura, projeto de um grupo de pesquisa sem fins lucrativos nos Estados Unidos chamado Far.AI.
Os governos precisam saber o que está acontecendo nos laboratórios de pesquisa e nas empresas que trabalham em sistemas de IA em seus países, disse o grupo na enunciação. E eles precisam de uma maneira de orar sobre riscos potenciais que não exija que empresas ou pesquisadores compartilhem informações proprietárias com concorrentes.
O grupo propôs que os países criem autoridades de segurança de IA para registrar os sistemas dentro de suas fronteiras. Essas autoridades portanto trabalhariam juntas para concordar com um conjunto de linhas vermelhas e sinais de alerta, uma vez que se um sistema de IA pudesse se reproduzir ou enganar propositadamente seus criadores. Tudo isso seria coordenado por um órgão internacional.
Cientistas dos EUA, China, Grã-Bretanha, Cingapura, Canadá e outros lugares assinaram a enunciação.
Entre os signatários estão Yoshua Bengio, tal qual trabalho é tão frequentemente citado que ele é chamado de um dos padrinhos do campo; Andrew Yao, tal qual curso na Universidade Tsinghua em Pequim formou os fundadores de muitas das principais empresas de tecnologia da China e Geoffrey Hinton, observador pioneiro que passou uma dez no Google.
Os três são vencedores do Prêmio Turing —o Nobel de computação.
O grupo também incluiu cientistas de várias das principais instituições de pesquisa de IA da China, algumas das quais são financiadas pelo Estado e aconselham o governo. Alguns ex-funcionários do governo se juntaram, incluindo Fu Ying, que trabalhou no ministério das Relações Exteriores da China e diplomata, e Mary Robinson, ex-presidente da Irlanda. No início deste ano, o grupo se reuniu em Pequim, onde informaram altos funcionários do governo chinês sobre suas discussões.
A reunião em Veneza ocorreu em um prédio de propriedade do bilionário filantropo Nicolas Berggruen. A presidente do think tank Instituto Berggruen, Dawn Nakagawa, também participou e assinou a enunciação.
As reuniões são um vasqueiro lugar de engajamento entre cientistas chineses e ocidentais, em um momento em que os EUA e a China estão travados em uma competição tensa pela primazia tecnológica. Os cientistas disseram que suas conversas eram importantes porque a troca científica está diminuindo em meio à competição entre as duas superpotências geopolíticas.
Em uma entrevista, Bengio, um dos fundadores do grupo, citou conversas entre cientistas americanos e soviéticos no auge da Guerra Fria que ajudaram a trazer coordenação para evitar uma catástrofe nuclear.
Em ambos os casos, os envolvidos sentiram a obrigação de ajudar a fechar a caixa de Pandora ocasião por suas pesquisas.
A tecnologia está mudando tão rapidamente que é difícil para empresas e governos individuais decidirem uma vez que abordá-la, e a colaboração é crucial, afirmou Fu Hongyu, diretor de governança de IA no instituto de pesquisa da Alibaba, AliResearch, que não participou do diálogo.
“Não é uma vez que regular uma tecnologia madura”, disse Fu. “Ninguém sabe uma vez que será o porvir da IA.”