Ao fazer compras na internet, tiro dúvidas sobre o resultado com um chat. Não sei identificar com certeza se quem responde é uma pessoa de verdade ou um robô.
Na sala de lição, professores discutem porquê prometer que o teor produzido por seus alunos foi de trajo escrito por eles, não por chatbots.
Até mesmo ao procurar tarefa não está reservado que o recrutador será uma pessoa ou uma lucidez sintético (e se o currículo apresentado foi feito pelo candidato ou, também, por uma IA).
Está cada vez mais difícil detectar o que é ou não feito por um humano.
Essa questão, vivida em graduação massiva pela primeira vez na história, já tinha sido antecipada há mais de 70 anos, quando Alan Turing publicou o item “Computing Machinery and Intelligence”, em 1950. Ele começa com uma pergunta simples e perturbadora: as máquinas podem pensar?
Porquê foi que chegamos a esse ponto, em que ilusões de lucidez desafiam nossa noção do que é humano?
A resposta envolve algumas décadas de história da ciência, controvérsias e duelos entre diferentes visões do campo.
Para fazer esse resgate, a BBC News Brasil consultou artigos científicos, livros e entrevistou pesquisadores de IA e professores.
MÁQUINAS PODEM PENSAR?
O observador britânico Alan Turing (1912-1954) é tido porquê um dos precursores da lucidez sintético —isso em um momento em que, vale lembrar, o termo sequer tinha sido criado. A sentença só se tornaria conhecida mais tarde, em 1956, com o observador da computação John McCarthy (1927-2011).
Ainda assim, as ideias do responsável teriam grande influência sobre o campo por décadas.
Foi nesse item que Turing apresentou o experimento que mais tarde seria chamado de Teste de Turing. Ele descreve primeiro uma versão do que chamou de “Jogo da Imitação”: três participantes —um varão, uma mulher e um interrogador, que pode ser de qualquer gênero.
O interrogador fica em um cômodo separado e só pode se exprimir por meio de mensagens escritas. Seu objetivo é desenredar quem é o varão e quem é a mulher. Os dois participantes tentam convencê-lo, um dizendo a verdade e o outro tentando enganar.
Turing propôs uma variação: substituir um dos dois participantes por uma máquina. Se, posteriormente a interação, o interrogador não conseguir honrar o humano do computador, portanto se poderia manifestar que a máquina “pensa”.
Em 1951, Turing deu uma palestra na BBC sobre o tema, segmento de uma série de falas sobre a ciência emergente da computação, que contou com outros pioneiros da idade.
Não existe gravação da transmissão de Turing, mas o roteiro original, com suas anotações e marcações manuscritas, permanece no Registro Escrito da BBC.
O responsável faz uma previsão no item: de que, em 50 anos (ou seja, por volta dos anos 2000), computadores teriam capacidade para armazenar muito mais palavras, a ponto de que interrogadores não teriam mais de 70% de chance de concertar o teste posteriormente cinco minutos de perguntas.
Ele também anteciparia o concepção de aprendizagem de máquina, ao manifestar que, ao invés de programar tudo de uma vez, sistemas deveriam ser criados para aprender com os dados.
“Se esse (programa) fosse portanto submetido a um curso de instrução favorável, obter-se-ia o cérebro adulto. Presumivelmente, o cérebro da rapaz é um tanto porquê um caderno que se compra na papelaria: pouco mecanismo e muitas folhas em branco.”
“Ele faz algumas previsões. E a desenlace do item dele descreve o que foi o desenvolvimento da IA hoje”, diz o professor de História e doutor em História Social pela USP Victor Sobreira.
A geração do prêmio Turing, espargido porquê Nobel da computação, ajudaria ainda mais a consolidá-lo porquê referência, destaca Sobreira.
Mas a teoria de automatizar tarefas humanas é muito anterior a Turing.
“Já na mitologia grega havia o deus que criou um autômato, Talos, para proteger a ilhota de Creta. Aristóteles, na obra Política, também discutia a possibilidade de seres automáticos ajudarem no trabalho e acabarem com o debate sobre mestres e escravos”, conta Anderson Rocha, professor titular do Instituto de Computação da Unicamp.
Mas se o termo “lucidez sintético” não é citado no item de Turing, onde ele surgiu, enfim?
JOGADA DE MARKETING?
Karen Hao, jornalista e autora do livro “Empire of AI” (veja entrevista da BBC em vídeo com a autora), lembra que o termo “lucidez sintético” surgiu em 1956, durante um encontro no Dartmouth College que reuniu tapume de 20 cientistas —”todos homens brancos”, em suas palavras— vindos da matemática, da criptografia e das ciências cognitivas.
John McCarthy, professor que organizou o evento, inicialmente chamava o campo de automata studies, o estudo de máquinas de comportamento automático.
Mas o nome não atraía atenção. Ao buscar uma sentença mais chamativa, cunhou “sintético intelligence”. A escolha foi, segundo a autora, uma estratégia de marketing: “lucidez” soava sofisticada, desejável e benéfica, capaz de mobilizar financiamento e despertar avidez científica.
A troca funcionou —o novo termo deu identidade a uma disciplina nascente e passou a atrair recursos e prestígio.
“Dartmouth acabou virando um mito fundador, mas na prática foi um encontro de dois meses sem tanto progressão concreto”, diz o professor Victor Sobreira.
“Mas estavam ali os que depois se tornaram grandes nomes da dimensão nos EUA, fundadores de centros porquê o do MIT e Stanford, que definiram a pesquisa na dimensão por décadas”, afirma, destacando os nomes de John McCarthy e Marvin Minsky.
“Ali já nasce um pouco dessa questão do hype associado à IA”, diz Anderson Rocha, da Unicamp.
Alguns pesquisadores criticam essa visão de “mito de origem” da IA, por fazer parecer que a teoria teria nascido de um único projeto acadêmico transportado por matemáticos e cientistas da computação.
Um item publicado em 2023 na revista BJHS Themes, por exemplo, aponta que as bases da IA também se relacionam a outras trajetórias históricas, porquê a industrialização, o militarismo e o colonialismo.
Esses vínculos aparecem, segundo os autores, na obediência de minerais extraídos em condições precárias em países africanos e na reprodução de lógicas coloniais de classificação de pessoas e territórios, por exemplo.
Mas porquê definir exatamente o que é lucidez? Porquê reproduzi-la em um computador?
COMO DEFINIR INTELIGÊNCIA? A BATALHA DE DUAS VISÕES
Em “Empire of AI”, Karen Hao conta que posteriormente a conferência de Dartmouth, dois campos concorrentes surgiram: o primeiro, espargido porquê simbolistas, acreditava que a lucidez vem do conhecimento.
Por isso, a IA deveria codificar representações simbólicas do conhecimento do mundo em máquinas, criando assim os chamados expert systems.
‘Foi daí que nasceram linguagens porquê o Prolog (linguagem de programação dos anos 70 baseada em regras para descontar respostas) e os sistemas especialistas dos anos 1980, muito usados, por exemplo, na aviação”, comenta Rocha.
O outro campo era o dos conexionistas, que acreditam que a lucidez vem do aprendizagem. Ou seja, para desenvolver a IA seria necessário gerar sistemas de aprendizagem de máquina que imitem porquê o cérebro humano processa informações. Foi daí que surgiram as redes neurais, que tentam simular as conexões do cérebro e formam, hoje, a base da IA moderna.
Em julho de 1958, o jornal americano The New York Times começa o texto de uma reportagem com um pregão estrondoso: a invenção do protótipo de um computador que poderia, no horizonte, “marchar, falar, ver, ortografar, se reproduzir e ser consciente de sua existência”, nas palavras do jornal.
O jornal se referia ao Perceptron, projeto desenvolvido pelo professor de psicologia Frank Rosenblatt, da Universidade de Cornell, que disse que a máquina seria o primeiro dispositivo a “pensar porquê o cérebro humano”, que “cometeria erros, mas ficaria mais inteligente na medida em que ganhasse experiência”, segundo a reportagem. O sistema era capaz de identificar padrões para diferenciar cartas.
Rosenblatt foi pioneiro na construção de uma máquina seguindo o princípio das redes neurais, em que um elemento do dedo é comparável a um impulso elétrico emitido pelo neurônio, conforme descreve Victor Sobreira em item que organiza a literatura sobre a história da IA.
Só que essa abordagem, na idade em que foi criada, era considerada muito rostro, sem poder computacional nem dados suficientes.
Marvin Minsky, um dos organizadores do evento em Dartmouth, ridicularizava ideias de colegas conexionistas, que disputavam os mesmos financiamentos. Minsky seria coautor de um livro que, segundo a jornalista Karen Hao, teria ajudado a limitar o financiamento do campo concorrente por décadas.
“Durante muitos anos, a abordagem conexionista ficou detrás da simbólica”, diz Anderson Rocha, da Unicamp.
“Com a explosão da internet, das redes sociais e das GPUs (unidade de processamento gráfico), esse cenário mudou. Passamos a ter muitos dados e muito mais capacidade de processamento. Isso empoderou a teoria original das redes neurais e fez a lucidez sintético conexionista lucrar protagonismo econômico e social”, afirma o professor.
“Hoje a simbólica está em desvantagem porque é muito difícil transcrever o conhecimento de um técnico em regras lógicas. Já a conexionista aprende a partir de dados em grande graduação. Mas ela também tem limitações. Por isso, há um movimento atual tentando unir as duas correntes —o que chamamos de IA neurossimbólica”, comenta.
Nem só o Perceptron ganhou espaço da prensa à idade. Um chatbot, representando a manante dos simbolistas, surpreenderia com sua capacidade de simular conversas com humanos.
ELIZA, O CHATBOT QUE ‘ENGANOU’ AO SIMULAR UMA CONVERSA
Em 1966, anos depois da notícia sobre o Perceptron exarar o New York Times, outro sistema chamou a atenção da mídia: Eliza, um chatbot que rodava em uma máquina gigante.
Porquê lembra a jornalista Karen Hao, tratava-se de uma IA simbólica baseada em regras simples, capaz unicamente de simular atenção e responsividade. O nome vinha de Eliza Doolittle, a florista do filme “My Fair Lady” e interpretada por Audrey Hepburn que, ao mudar fala e maneiras, conseguia se passar por uma pessoa da escol.
Em universal, o programa demonstrava interesse no que o usuário disse e portanto pedia mais informações. Um exemplo citado no livro Empire of AI é essa conversa aquém, extraída de um item produzido pelo fundador do chatbot, Joseph Weizenbaum:
Usuário: Os homens são todos iguais.
ELIZA: de que maneira
Usuário: Eles estão sempre nos incomodando com uma coisa ou outra.
ELIZA: você pode pensar num exemplo específico
Usuário: muito, meu namorado me fez vir cá.
ELIZA: seu namorado te fez vir cá
Usuário: Ele diz que estou deprimida a maior segmento do tempo
ELIZA: Sinto muito saber que você está deprimida
Usuário: É verdade, estou infeliz.
ELIZA: Você acha que vir cá te ajudará a não ser infeliz?
O experimento testava se humanos poderiam crer em uma ilusão de lucidez —e funcionou. Segundo a pesquisa de Karen Hao, alguns psiquiatras chegaram a prever que, em poucos anos, seria verosímil gerar uma psicoterapia automatizada, um tanto que hoje já é tentado com as IAs atuais.
Mas por que a pesquisa na dimensão não evoluiu na velocidade que se previa?
CRÍTICAS QUE CONGELARAM O FINANCIAMENTO DA PESQUISA EM IA
Victor Sobreira conta, em seu item que resgata a história da IA, que duras críticas ao campo produzidas entre os anos 60 e 70 contribuíram para o galanteio do financiamento de pesquisas na dimensão por décadas.
Uma delas, de 1965, foi feita em um estudo do filósofo Hubert Dreyfus, professor da Universidade da Califórnia, em Berkeley. O título provocativo, Alchemy and Sintético Intelligence já dava o tom do que viria a seguir. Para Dreyfus, não se deveria investir mais em pesquisas que buscassem espelhar o comportamento humano em máquinas digitais, já que os objetivos prometidos estavam longe de serem alcançados.
Em outro trabalho, de 1973, o matemático James Lighthill apontou o que chamou de explosões combinatórias: por mais complexos que fossem, esses sistemas eram baseados em regras. Tal abordagem só funcionaria, portanto, em situações controladas e com poucas variáveis, porquê em um jogo, mas não em situações do mundo real.
“Nos anos 1970 e 1980 tivemos os chamados invernos da lucidez sintético, períodos em que o financiamento caiu muito e houve menos interesse social e político na dimensão”, afirma Rocha.
VITÓRIAS DE IA SOBRE HUMANOS EM JOGOS IMPULSIONAM ATENÇÃO
Alguns dos grandes momentos da IA, ao menos no quesito invocar atenção do grande público, aconteceram em momentos em que máquinas derrotaram humanos em jogos.
“Durante todo o período de desenvolvimento da IA, jogos foram importantes e continuam sendo importantes, porque em jogos você tem uma simulação de uma situação, muitas vezes que você conhece. Com regras e envolvente relativamente controlado você consegue estimar muito os seus algoritmos, as suas técnicas”, diz o professor da Unicamp.
Uma reportagem da BBC lembra um incidente que simboliza o início dessa relação entre jogos e IA.
O texto conta que, em 1968, um vencedor escocês de xadrez, David Levy, estava em uma sarau que tinha porquê anfitrião Donald Michie, fundador do Departamento de IA da Universidade de Edimburgo. Levy conversava com o inventor do termo lucidez sintético, John McCarthy, que o desafiou para uma partida.
Levy derrotou o americano McCarthy, mas o pesquisador foi embora com uma promessa: de que, em 10 anos, computadores teriam sucesso onde ele falhara. Levy prometeu, portanto, remunerar US$ 500 caso perdesse para um computador antes de 1979.
“Eu ganhava menos de milénio dólares por ano, mas estava muito positivo”, lembrou.
Em 1978, Levy enfrentou um computador e disputou cinco partidas, das quais venceu três. Perderia somente em 1989, em uma série promovida pela Sociedade Britânica de Xadrez, em Londres, contra um programa chamado Deep Thought (Pensamento Profundo).
Mas o incidente que se tornaria mundialmente espargido é o da partida em que o computador da IBM Deep Blue derrotaria o vencedor mundial russo Garry Kasparov, em 1997.
“A vitória do Deep Blue demonstrou que os computadores podem superar os seres humanos em jogos altamente estratégicos, há muito considerados um marco da lucidez humana”, descreve um item sobre a história da IA publicado no site da IBM.
Outro marco foi a vitória do AlphaGo, em 2016, contra o vencedor mundial do jogo de Go, considerado muito mais multíplice que o xadrez por oferecer tapume de 200 possibilidades de jogada a cada vez.
No ano seguinte, outra equipe do Google publicaria um item que apresentaria as bases da IA generativa, base de sistemas de hoje porquê o ChatGPT e o Gemini.
O que dizia esse item?
TRANSFORMER: A TECNOLOGIA QUE DEU ORIGEM À IA GENERATIVA
Em 2017, uma equipe do Google apresentou o Transformer, um novo tipo de rede neural capaz de captar o contexto de uma frase.
Na prática, é porquê se a máquina previsse as palavras mais prováveis de uma sentença. Dissemelhante dos modelos anteriores, que liam vocábulo por vocábulo, o Transformer olha para o todo e identifica quais trechos são mais importantes.
É porquê se, ao ler um texto, fosse verosímil primar de inesperado as palavras-chave que dão sentido à mensagem. O item recebeu o título Attention is All You Need (“Atenção é tudo de que você precisa”).
No exemplo “o gato sentou no tapete porque estava cansado”, o protótipo conecta diretamente “estava cansado” a “gato”, sem precisar seguir rigidamente a ordem vocábulo por vocábulo.
Esse mecanismo, chamado de autoatenção (self-attention), permite que o computador relacione cada vocábulo com todas as outras de uma frase ou trecho, e não unicamente com a que vem antes ou depois. Assim, consegue entender conexões que podem estar muito distantes no texto. É isso que torna verosímil responder perguntas longas ou manter uma conversa harmónico: o protótipo dá mais peso às partes mais relevantes do que já foi dito.
No item original, o protótipo foi testado em tarefas de tradução. Mas Ilya Sutskever, cofundador e cientista-chefe da portanto ainda pequena OpenAI, enxergava na novidade um potencial que ia muito além.
No livro “Empire of AI”, Karen Hao relata que Ilya Sutskever, cofundador da OpenAI, enxergou no item do Google sobre Transformers um potencial maior que tradução ou buscas online: a chance de prosseguir o “deep learning”, técnica que usa redes neurais com muitas camadas para aprender padrões complexos a partir de grandes volumes de dados.
Foi nesse cenário que pesquisadores da organização decidiram expandir o foco. Um item publicado pela OpenAI em 2018 mostraria que, ao treinar um protótipo de linguagem para a tarefa genérica de prever a próxima vocábulo em milhões de frases, ele adquiria conhecimento que depois podia ser reaproveitado em várias outras tarefas, porquê responder perguntas.
Para isso, treinaram a rede com mais de 7.000 livros não publicados de gêneros diversos (de um dataset chamado BooksCorpus). A mudança mostrou que, ao tentar gerar frases convincentes, o sistema absorvia nuances profundas da linguagem. Sutskever resumia essa teoria dizendo que “lucidez é compressão”: gerar texto forçava a máquina a condensar conhecimento sobre o mundo.
Em 2018, a OpenAI lançou o GPT-1 (Generative Pre-Trained Transformer). O “pre-trained” no nome indicava que o protótipo foi treinado em um grande conjunto genérico de textos, para depois ser ajustado a tarefas específicas. O protótipo validou a teoria e abriu caminho para versões mais robustas.
Naquele momento a OpenAI ainda tinha unicamente três anos de vida. Tinha sido fundada em 2015 por nomes porquê Elon Musk e Sam Altman, com a promessa de desenvolver IA de forma ensejo e em favor da humanidade.
Musk já era um dos maiores nomes da tecnologia. Já Sam Altman teve uma curso de sucesso graças ao desenvolvimento de aplicativos e ao investimento em startups.
Em 2018, Musk deixou a OpenAI devido a conflitos internos.
Os parceiros da OpenAI perceberam que, para atingir seus objetivos, precisariam transformar a organização sem fins lucrativos em uma empresa de propósito misto, com um componente com fins lucrativos que pudesse gerar recursos financeiros.
Do GPT-1 em diante, foi uma questão de graduação, com cada vez mais parâmetros. Quanto mais parâmetros, maior a capacidade do protótipo de conquistar nuances da linguagem quando é nutrido com grandes volumes de texto.
Em 2022, chegaria ao GPT-3.5, que se tornaria a base do popular ChatGPT.
A IA GENERATIVA CHEGOU AO LIMITE?
Quando a OpenAI lançou seu mais recente protótipo, o GPT-5, em agosto de 2025, havia a expectativa de um grande salto tecnológico, porquê a evolução vista entre os modelos 3 e 4. Mas críticos dizem que isso não foi conseguido. O Financial Times publicou um texto com o título “Is AI hitting a wall?” (A IA está batendo em uma parede?).
Uma das críticas é que o lucro entre uma versão e outra tem sido conquistado com uma fórmula simples, de aumentar o número de dados usados e poder de computação. Mas que essa fórmula tem limites.
Mais recentemente, Sam Altman, da OpenAI, recebeu críticas pelo lançamento de um aplicativo que usa lucidez sintético para geração de vídeos.
Em 1º de outubro, ele compartilhou, em sua conta do X, uma dessas críticas, que dizia: “Sam Altman há duas semanas nós precisamos de 7 trilhões de dólares e 10 GW (gigawats, em referência ao consumo de robustez da IA) para medicar o cancro. Sam Altman hoje: Estamos lançando vídeos de AI slop (de baixa qualidade) comercializados porquê anúncios personalizados.”
Altman respondeu que entende a mensagem, mas que a empresa precisa de capital para erigir uma IA “capaz de fazer ciência.”
“Também é bom mostrar às pessoas novas tecnologias/produtos interessantes ao longo do caminho, fazê-las sorrir e, com sorte, lucrar qualquer numerário, dada toda essa premência de computação”, escreveu ele.
“Modelos porquê o GPT-5, o novo Gemini e o Claude são fantásticos, mas não conseguem mourejar com aspectos básicos do raciocínio humano, porquê o siso geral, a noção de motivo e consequência ou a capacidade de imaginar cenários contrafactuais”, diz Anderson Rocha, professor titular do Instituto de Computação da Unicamp. “Isso não é um tanto que vai ser trazido a partir de dados. Chegamos no limite”, diz.
Outro repto é reduzir a obediência de grandes volumes de informação e de recursos computacionais.
“Precisamos chegar à performance atual, mas usando menos dados e menos robustez, ou formas mais inteligentes de aprendizagem que capturem padrões ainda não identificados”, diz Rocha.
Há ainda implicações sociais e políticas. “Os sistemas precisam tomar decisões mais explicáveis, auditáveis e menos enviesadas, de forma a não reproduzir discriminações contra minorias ou grupos específicos.”
Sobre a possibilidade de inferir a lucidez humana, ele é cético: “Não sabemos, até porque a definição de lucidez é multifacetada. Envolve aspectos emocionais, sociais, psicológicos e políticos”.
‘A HISTÓRIA DA IA AINDA ESTÁ POR SER CONSTRUÍDA’
Quando o pesquisador Victor Sobreira começou a buscar a literatura sobre a história da IA, percebeu que eram os próprios pesquisadores do campo que contavam sobre essa trajetória, não historiadores.
” A história da IA ainda está por ser construída de forma rigorosa, indo detrás dos arquivos, não unicamente se baseando nos relatos dos próprios pesquisadores”, diz. “É quase uma história autorreferencial.”
Em seu item, Sobreira defende que as fontes e a historiografia sobre IA são “extremamente problemáticas”, já que foram, muitas vezes, “produzidas e construídas por pessoas próximas dos pesquisadores abordados, ocasionalmente até com financiamento dos objetos da pesquisa.”
Ele destaca que muitas das ideias presentes nessa literatura estariam desconexas de seu contexto político e social. E cita, porquê exemplo, a proximidade do campo com as forças militares norte-americanas durante a Guerra Fria.
“O tropa norte-americano tinha um interesse direto no matéria. Investiu muito numerário para além também de empresas privadas. Encontrei pouco material que se aprofunda diretamente nessa relação.”
Texto publicado originalmente cá
