Ia: relatório prevê caos e cita risco de extinção humana

IA: Relatório prevê caos e cita risco de extinção humana – 21/05/2025 – Tec

Tecnologia

O ano é 2027. Sistemas de perceptibilidade sintético avançados ultrapassam a perceptibilidade humana e já causam estragos na ordem global. Espiões chineses roubaram os segredos de IA dos Estados Unidos, e a Mansão Branca está se apressando para retaliar. Dentro de um laboratório de IA de ponta, engenheiros ficam assustados ao desvendar que seus modelos estão começando a enganá-los, levantando a possibilidade de que eles se tornem incontroláveis.

Estas são cenários imaginados por uma organização sem fins lucrativos em Berkeley, Califórnia, chamada AI Futures Project, que passou o último ano tentando projetar uma vez que será o mundo nos próximos anos, à medida que inteligências artificiais cada vez mais sofisticadas são desenvolvidas.

O projeto está sob o comando de Daniel Kokotajlo, um ex-pesquisador da OpenAI. Ele deixou a empresa no ano pretérito devido a preocupações de que a gestão agia imprudentemente.

Enquanto estava na OpenAI, onde fazia secção da equipe de governança, Kokotajlo escreveu relatórios internos detalhados sobre uma vez que a corrida pela perceptibilidade sintético universal (AGI) —um termo pouco definido para o momento quem a perceptibilidade das máquinas chegarem ao nível humano— poderia se concretizar.

Depois de transpor, ele se uniu a Eli Lifland, um pesquisador de IA que tinha um histórico de previsões precisas de eventos mundiais. Eles começaram a trabalhar para tentar prever a próxima vaga da IA.

O resultado é “AI 2027”, um relatório e site lançados esta semana que descrevem, em um cenário hipotético detalhado, o que poderia ocorrer se os sistemas de IA superarem a perceptibilidade humana —o que os autores esperam que aconteça nos próximos dois a três anos.

“Prevemos que as IAs continuarão a melhorar até o ponto em que serão agentes totalmente autônomos, melhores que humanos em tudo, até o final de 2027”, disse Kokotajlo em entrevista ao New York Times.

Não falta especulação sobre IA atualmente. San Francisco foi tomada pelo fervor da IA, e a cena tecnológica da Bay Area se tornou uma coleção de tribos em guerra e seitas dissidentes, cada uma convencida de que sabe uma vez que o horizonte será.

Algumas previsões de IA tomaram a forma de um manifesto, uma vez que “Machines of Loving Grace”, um experiência de 14 milénio palavras escrito no ano pretérito por Dario Amodei, o diretor executivo da Anthropic, ou “Situational Awareness”, um relatório do ex-pesquisador da OpenAI Leopold Aschenbrenner que foi amplamente lido em círculos políticos.

As pessoas do AI Futures Project projetaram o seu uma vez que um cenário de previsão —essencialmente, uma peça de ficção científica rigorosamente pesquisada que usa suas melhores estimativas sobre o horizonte uma vez que pontos de enredo.

O grupo passou quase um ano refinando centenas de previsões sobre IA. Logo, eles trouxeram um repórter —Scott Alexander, que escreve o blog Astral Codex Ten— para ajudar a transformar sua previsão em uma narrativa.

“Pegamos o que achávamos que aconteceria e tentamos torná-lo envolvente”, disse Lifland.

Críticos dessa abordagem podem discutir que histórias fictícias de IA são melhores para assustar as pessoas do que educá-las. Alguns especialistas em IA, sem incerteza, vão se opor à certeza medial do grupo de que a perceptibilidade sintético ultrapassará a perceptibilidade humana.

Ali Farhadi, CEO do Allen Institute for Sintético Intelligence, um laboratório de IA em Seattle, revisou o relatório “AI 2027” e disse que não ficou impressionado.

“Sou em prol de projeções e previsões, mas esta previsão não parece estar fundamentada em evidências científicas, ou na veras de uma vez que as coisas estão evoluindo na IA”, disse ele.

Não há incerteza de que algumas das visões do grupo são extremas. (Kokotajlo, por exemplo, disse no ano pretérito que acreditava ter 70% de chance de que a IA destruiria ou prejudicaria catastroficamente a humanidade.)

Kokotajlo e Lifland têm laços com o altruísmo eficiente, outro movimento filosófico popular entre trabalhadores de tecnologia que tem feito advertências terríveis sobre IA há anos.

Mas também vale a pena notar que algumas das maiores empresas do Vale do Silício estão planejando para um mundo além da AGI, e que muitas das previsões aparentemente loucas feitas sobre IA no pretérito —uma vez que a visão de que as máquinas passariam no Teste de Turing, um experimento mental que determina se uma máquina pode parecer se conversar uma vez que um humano— se tornaram veras.

Em 2021, o ano antes do lançamento do ChatGPT, Kokotajlo escreveu um post no blog intitulado “Uma vez que será 2026”, delineando sua visão de uma vez que os sistemas de IA progrediriam. Várias de suas previsões se mostraram perspicazes, e ele se convenceu de que esse tipo de previsão era valioso, e que ele era bom nisso.

“É uma maneira elegante e profíquo de conversar sua visão para outras pessoas”, disse ele.

Na semana passada, Kokotajlo e Lifland me convidaram para seu escritório —uma pequena sala em um espaço de coworking em Berkeley chamado Constellation, onde várias organizações de segurança de IA mantêm presença— para me mostrar uma vez que eles operam.

Kokotajlo, vestindo uma jaqueta estilo militar bege, pegou um marcador e escreveu quatro abreviações em um grande quadro branco: “SC (programador sobrenatural)> SAR (IA pesquisadora sobre-humana)> SIAR (IA pesquisadora superinteligente)> ASI (superinteligência sintético)”. Cada uma, explicou ele, representava um marco no desenvolvimento da IA.

Primeiro, disse ele, em qualquer momento no início de 2027, se as tendências atuais se mantiverem, a IA será uma programadora sobre-humana. Logo, em meados de 2027, será um pesquisadora sobre-humana —um agente autônomo que pode supervisionar equipes de programadores de IA e fazer novas descobertas. Logo, no final de 2027 ou início de 2028, se tornará uma pesquisadora superinteligente —uma perceptibilidade de máquina que sabe mais do que nós sobre a construção de IA avançada, e pode automatizar sua própria pesquisa e desenvolvimento, essencialmente construindo versões mais inteligentes de si mesma. A partir daí, disse ele, é um pequeno salto para a superinteligência sintético, momento em que todas as apostas estão encerradas.

Se tudo isso parece fantástico, é mesmo. Zero remotamente parecido com o que Kokotajlo e Lifland estão prevendo é verosímil com as ferramentas de IA atuais, que mal conseguem pedir um burrito no DoorDash sem travar.

Mas eles estão confiantes de que esses pontos cegos diminuirão rapidamente, à medida que os sistemas de IA se tornem bons o suficiente em programação para aligeirar a pesquisa e o desenvolvimento de IA.

Seu relatório se concentra na OpenBrain, uma empresa fictícia de IA que constrói um poderoso sistema de IA divulgado uma vez que Agent-1. (Eles decidiram não sobresair uma empresa específica de IA, criando um constituído das principais laboratórios americanos de IA.)

À medida que o Agent-1 melhora na programação, ele começa a automatizar grande secção do trabalho de engenharia na OpenBrain, o que permite que a empresa avance mais rapidamente e ajuda a erigir o Agent-2, um pesquisador de IA ainda mais capaz. No final de 2027, quando o cenário termina, o Agent-4 está fazendo avanços de pesquisa de IA equivalentes a um ano a cada semana, e ameaço se tornar incontrolável.

Mesmo que eu concorde com os autores de “AI 2027” que sistemas poderosos de IA estão chegando em breve, não estou convicto de que programadores de IA sobre-humanos maquinalmente adquirirão as outras habilidades necessárias para se impulsionar até a perceptibilidade universal. Ainda sou cauto com previsões que assumem que o progresso da IA será suave e exponencial, sem grandes gargalos ou obstáculos ao longo do caminho.

Mas acho que esse tipo de previsão vale a pena, mesmo que eu discorde de algumas previsões específicas. Se uma IA poderosa realmente estiver próxima, todos nós precisaremos debutar a imaginar futuros muito estranhos.

Folha

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *