Harari: podemos ficar presos no sonho de uma ia

Harari: Podemos ficar presos no sonho de uma IA – 03/08/2025 – Mercado

Tecnologia

As histórias que compartilhamos e que são frutos da imaginação coletiva nos ajudaram a prosperar porquê espécie. É o que tem defendido o historiador israelense Yuval Noah Harari, que se tornou um dos maiores best-sellers mundiais desde a publicação de “Sapiens – Uma Breve História da Humanidade” (Companhia das Letras).

O problema, diz ele, é que agora não dá mais para saber se a história que ouvimos não está saindo da boca de um robô. Se em filmes porquê “Matrix” as máquinas controlavam os humanos conectando seus cérebros a uma rede, a lucidez sintético pode usar a mesma arma de profetas e poetas: a linguagem.

“Filósofos porquê Platão alertaram que poderíamos permanecer presos em ilusões humanas. Agora enfrentamos transe maior: ficarmos presos nos sonhos de uma lucidez estranho”, diz o historiador em entrevista à Folha.

Harari vem ao Brasil para o lançamento, no dia 17 de agosto, do SP2B, festival de inovação, originalidade e desenvolvimento urbano que vai ocupar o parque Ibirapuera no ano que vem, com mais de 20 espaços.

O novo evento quer ser a versão brasileira do South by Southwest (SXSW), influente festival de inovação dos EUA, voltado para tecnologia, mídia e cultura. E foi desenvolvido quando o festival americano decidiu pausar sua expansão global, pondo término a negociações em curso para trazer o SXSW ao Brasil.

Os organizadores do SP2B são os mesmos do Rio2C, evento da indústria criativa no Rio de Janeiro que tangencia temas semelhantes. Mas, segundo Rafael Lazarini, CEO da Da20, empresa responsável, enquanto o festival carioca é “80% voltado à indústria criativa e 20% à inovação e tecnologia”, o parente paulistano aposta no caminho inverso.

O evento de lançamento terá a presença de Hugh Forest, que liderou por décadas o SXSW, e um show de Gilberto Gil em homenagem a São Paulo.

Harari, por sua vez, vai ser o responsável pela palestra de lisura. Nesta entrevista à Folha, ele discute os impactos da lucidez sintético para as narrativas humanas, debate os efeitos dela para a sossego mundial e analisa a coligação entre bilionários da tecnologia e o governo Donald Trump.

Parece possuir um oração apocalíptico poderoso envolvendo a IA. Enfim, essa tecnologia pode nos destruir?

Um pouco estranho nessa indústria é que muitas pessoas que correm para edificar uma IA avançada vivem alertando sobre seus perigos.

Quando convertido com fundadores dos principais laboratórios de IA, eles contam uma história semelhante: adorariam reduzir o ritmo e investir mais em segurança, mas não confiam que os concorrentes nos EUA ou na China farão o mesmo. Por isso, dizem não ter opção a não ser apressar ainda mais.

Na IA, é impossível prever todas as possíveis catástrofes. A lucidez sintético não é só uma instrumento; é um agente. IAs podem tomar decisões, ter ideias totalmente novas e produzir IAs superiores. Não sabemos porquê a IA evoluirá —e isso a torna tão perigosa.

Não entendo a lógica desses pesquisadores que correm para produzir IAs mais poderosas. Quando dizem que não confiam nos concorrentes humanos, pergunto: “Vocês acham que poderão encarregar numa IA superinteligente?”. Eles respondem que sim! Isso parece insano.

Com humanos, ao menos temos experiência e conhecimento de psicologia. Nunca lidamos com IA superinteligente. Não há porquê prever o que acontecerá quando milhões de agentes superinteligentes começarem a interagir conosco —e entre si.

A IA tem imenso potencial positivo —e negativo. Pode nos salvar ou nos destruir. O desfecho depende de os seres humanos confiarem mais uns nos outros do que confiam na IA. Se a humanidade cooperar para desenvolver IA com segurança, será a melhor invenção da história. Mas, se for criada por uma corrida armamentista entre pessoas que se odeiam e temem, é provável que nos destrua.





Em filmes porquê Matrix, as IAs controlam humanos conectando fisicamente seus cérebros a uma rede. Mas não há motivo para as IAs recorrerem a isso.

O sr. já escreveu sobre o poder das narrativas em moldar sociedades humanas. A IA pode mudar nossa relação com essas histórias e nossas crenças coletivas?

Antes da IA, todas as histórias que moldavam as sociedades vinham da imaginação humana. Por mais estranha —fosse um mito religioso ou uma teoria conspiratória—, sabíamos que um humano a inventara. Hoje, pela primeira vez, perdemos essa certeza. Não só não sabemos se a história que ouvimos foi criada por uma IA porquê tampouco sabemos se quem a conta não é um robô.

Em filmes porquê “Matrix”, as IAs controlam humanos conectando fisicamente seus cérebros a uma rede. Mas não há motivo para as IAs recorrerem a isso. Se quiserem manipular pessoas, basta a linguagem —a mesma arma que profetas e poetas usam há milênios.

A cultura é um casulo de histórias. Vivemos dentro dele. Tudo, dos hábitos sexuais às convicções religiosas, é moldado por narrativas. Por milênios, filósofos porquê Platão e Buda alertaram que poderíamos permanecer presos em ilusões humanas. Agora enfrentamos transe maior: ficarmos presos nos sonhos de uma lucidez estranho —sonhos potencialmente mais persuasivos e enganosos do que qualquer história já criada por humanos.

Que efeitos a coligação entre lideranças do Vale do Silício e o governo Donald Trump vai trazer para o desenvolvimento dessa tecnologia?

Creio que muitos desses executivos se aproximaram de Trump porque viram uma chance de proceder suas agendas. No Departamento de Eficiência Governamental de Elon Musk, por exemplo, fica evidente que o objetivo principal não era trinchar gastos públicos, mas transferir poder de burocratas humanos para burocratas de IA.

A teoria era desonerar humanos e substituí-los por IAs —um tanto muito lucrativo para quem desenvolve sistemas poderosos, porquê Musk. Mas isso não tornaria o governo mais transparente ou responsável; na verdade, o deixaria ainda mais obscuro.

Se a coligação entre Trump e secção do Vale do Silício se mantiver, veremos sistemas de IA se espalharem pelo governo, deslocando pessoas de posições de domínio. E, porquê o governo Trump se opõe à regulação, a IA acabará tomando mais decisões em todos os setores da economia.

Alguns podem aplaudir a transferência de poder dos burocratas humanos para algoritmos. Burocratas têm má reputação. Mas é importante lembrar que nenhuma sociedade em grande graduação funciona sem eles. E, se você acha ruim mourejar com burocratas humanos, espere até encarar um algoritmo sem rosto decidindo se você consegue um tarefa, um empréstimo —ou se vai para a prisão.

A IA se dissemina num momento em que a ordem mundial que garantiu a sossego por décadas parece se desfazer. Que tipos de conflitos podemos esperar?

Infelizmente, a revolução da IA ocorre justamente quando a ordem liberal global colapsa. Isso dificulta criarmos regras comuns para o desenvolvimento da IA e aumenta o risco de ela acirrar conflitos violentos.

A ordem liberal global tinha falhas, mas tornou a humanidade mais próspera e segura do que nunca. Seu tabu mais importante era: países fortes não podem simplesmente invadir e invadir países mais fracos pela força das armas. Com essa ordem sendo desmantelada, o tabu sumiu. Vemos isso na invasão russa da Ucrânia, tal qual objetivo é pura e simplesmente invadir o país —um tanto que não víamos desde 1945. Os EUA falam em apensar Groenlândia, Panamá e até o Canadá; a China quer Taiwan; Israel quer apensar Gaza; a Venezuela deseja a Guiana; a Etiópia mira partes da Eritreia. Quando se destrói a ordem, sobra o caos.

Isso aparece nos Orçamentos: os gastos militares disparam, tirando verba de saúde e ensino. Muitos Exércitos investem esses recursos em capacidades de IA.

Imagine uma guerra futura, digamos, entre Otan e Rússia. Um lado entrega à IA a domínio de selecionar e matar alvos; o outro mantém humanos decidindo tudo. Quando o humano ordenar que seu drone atire, ele já terá sido aniquilado por um drone totalmente autônomo. A pressão para dar mais domínio à IA será irresistível. Isso tornará navios, aviões e tanques atuais obsoletos.

Os políticos que destroem a ordem liberal global não parecem perceber essas consequências. Acham que ficarão mais poderosos. Talvez a pequeno prazo. A longo, só vão transferir poder de humanos para robôs.





Sim, precisamos de lucidez para depreender metas, mas o que define a vida é a consciência; sentimentos são a base da moral. Devemos ter muito desvelo para não perfazer com um universo pleno de lucidez e vazio de sentimento.

O que muda no cenário global a depender de quem vença a corrida pela IA, China ou Estados Unidos?

Há poucos bons desenlaces para uma corrida armamentista de IA. Uma vez que mencionei, isso dificulta a cooperação para prometer um desenvolvimento seguro e incentiva nações a investir nas formas mais perigosas de IA militarizada.

Na Guerra Fria, EUA e URSS eram contidos pela devastação mútua garantida: sabiam que, se atacassem com armas nucleares, também seriam destruídos. Hoje não existe freio semelhante. A imprevisibilidade da evolução da IA torna tudo ainda mais perigoso. O que acontecerá se a China encontrar que os EUA estão perto de desenvolver uma IA tão poderosa que poderia desativar seus mísseis nucleares? A teoria dos jogos diz que o momento mais perigoso numa corrida armamentista é quando um lado sente que sua vantagem está desaparecendo. Podemos estar chegando exatamente a esse ponto.

Quais habilidades ou valores devemos ensinar às crianças para prepará-las para um mundo escravizado pela lucidez sintético?

As pessoas precisarão, supra de tudo, da capacidade de continuar aprendendo, mudando e se reinventando repetidamente. Cultivar essa capacidade exigirá uma reformulação completa dos nossos sistemas educacionais. Nas provas finais, os alunos não deveriam ser avaliados por repetir um tanto que memorizaram, mas sim por mourejar com um tanto novo que nunca encontraram antes. Uma ensino útil para a era da IA deve ajudar a pessoa a se sentir confortável diante do ignoto. As pessoas que prosperarão nas próximas décadas serão aquelas capazes de enfrentar o caos e a incerteza sem perder o estabilidade mental.

O desenvolvimento da superinteligência —a chamada IA universal— até o momento parece unicamente uma abstração. Acredita que a humanidade chegará a essa tecnologia?

Há grande confusão entre lucidez e consciência. Perceptibilidade é a capacidade de atingir objetivos e resolver problemas —por exemplo, vencer no xadrez. Consciência é a capacidade de sentir dor, prazer, paixão e ódio. Nos animais orgânicos, lucidez depende da consciência: usamos sentimentos para resolver problemas. Nas IAs não orgânicas, é dissemelhante: elas já superam humanos em algumas áreas —porquê xadrez—, mas sem consciência. Elas não sentem zero. Quando uma IA vence, não sente alegria; quando perde, não fica triste. Não há indícios de que computadores caminhem para desenvolver consciência.

Pode possuir vários caminhos até a superinteligência, e só alguns exigem consciência. Assim porquê aviões voam mais rápido que pássaros sem desenvolver penas, computadores podem resolver problemas melhor do que humanos sem desenvolver sentimentos. Evidente que, graças à subida lucidez, IAs poderão imitar emoções e nos convencer de que são conscientes. Vai ser cada vez mais difícil saber se uma IA é consciente.

Consciência é muito mais importante do que lucidez. Sim, precisamos de lucidez para depreender metas, mas o que define a vida é a consciência; sentimentos são a base da moral. Uma ação má é um tanto que faz alguém suportar; uma ação boa reduz o sofrimento. Devemos ter muito desvelo para não perfazer com um universo pleno de lucidez e vazio de sentimento.


RAIO-X | Yuval Noah Harari, 48

Nascido em Israel, é professor na Universidade Hebraica em Jerusalém e pesquisador na Universidade de Cambridge. Formado em história militar e medieval na Universidade Hebraica, tem doutorado pela Universidade de Oxford. Responsável dos best-sellers mundiais “Sapiens – Uma Breve História da Humanidade”, “Homo Deus – Uma Breve História do Amanhã” e “21 Lições para o Século 21”, traduzidos para 65 idiomas.

Folha

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *