Durante uma visitante de Páscoa para ver meus primos americanos, fiquei surpreso quando, em seguida pedir à Alexa para tocar música, sua resposta ao meu “por obséquio” foi um observação surpreendentemente em tom de flerte sobre minhas boas maneiras.
Não digo “por obséquio” a um alto-falante inteligente porque acho que os sentimentos do sistema de som serão feridos caso contrário. Faço isso porque a regra de que, quando você pede um pouco, deve manifestar “por obséquio”, foi tão enraizada em mim que se tornou uma memória muscular.
Portanto, quão educados devemos ser com as máquinas? Uma resposta está contida em meu flerte casual com a assistente inteligente da Amazon: polidez, cortesia e tratar os outros com honra não são somente escolhas morais, são questões de hábito. Devemos praticá-las o tempo todo porque, se nos acostumarmos a dar ordens bruscas aos computadores, logo começaremos a fazer o mesmo com seres humanos.
Eu digo “por obséquio” quando peço um pouco ao ChatGPT (geralmente ajuda com programação), em segmento porque tento manifestar “por obséquio” e “obrigado” quando escrevo para uma pessoa, e isso é tanto um hábito quanto o estranho floreio que faço com meu dedo mindinho quando aperto a barra de espaço no meu teclado.
Não acho que essas sejam coisas que eu deva desaprender; se eu me ensinasse a parar de manifestar “por obséquio” ao atendimento automatizado que meu banco me conecta primeiro, eu pararia de ser educado quando fosse guiado a um humano para um caso mais multíplice.
Não sei se William MacAskill, o filósofo e um dos principais proponentes do “longoprazismo”, diz “por obséquio” e “obrigado” à Alexa, mas ele anunciou recentemente no X (ex-Twitter) que quando um padrão de linguagem grande (LLM) “faz um trabalho particularmente bom, eu dou uma recompensa: digo que ele pode ortografar o que quiser”.
Isso não é por pretexto de um hábito enraizado; trata-se de recompensar o LLM uma vez que se fosse uma pessoa. Os longoprazistas, que acreditam que devemos nos importar com as gerações futuras tanto quanto com o presente, também estão preocupados com a chegada de perceptibilidade sintético de propósito universal com capacidade de raciocinar e pensar tão muito ou melhor que qualquer ser humano.
Oriente é um bom exemplo de uma vez que o longoprazismo contém uma teoria muito boa e várias ideias malucas. A preocupação com o horizonte é boa. Mas, na prática, o longoprazismo frequentemente significa pontificar sobre coisas que podem intercorrer no horizonte que não podemos controlar ou entender, enquanto fechamos os olhos para problemas reais no presente.
É legítimo fazer perguntas uma vez que: “Se a máquina é mais inteligente que o humano, não deveríamos deixá-la fazer algumas escolhas por si mesma?” Mas deveríamos perguntar com maior urgência: “Oferecido que muitas pessoas acreditam que seu chatbot pode fazer coisas que não pode e estão correndo grandes riscos, o que podemos fazer para protegê-las?”
Não está evidente se qualquer dia teremos máquinas inteligentes capazes de raciocínio universal, ou que tenham desejos e vontades genuínas uma vez que um ser humano. Enquanto isso, temos problemas reais de pessoas causando danos a si mesmas porque se convencem de que o chatbot com quem estão conversando é real.
Um varão de 76 anos, Thongbue Wongbandue, deixou sua vivenda para “encontrar” um chatbot pelo qual se apaixonou e morreu em um acidente durante a viagem.
Uma mulher de 35 anos com transtorno bipolar se apaixonou por um chatbot, convenceu-se de que o ChatGPT a havia “matado” e acabou em um confronto infalível com a polícia.
Onde MacAskill tem o germe de uma boa teoria é que o momento em que uma máquina se torna inteligente o suficiente para nos preocuparmos com uma vez que a tratamos pode não ser óbvio.
Toda a história humana mostra que nossa disposição para negar direitos e honra a outras pessoas é assustadoramente poderosa; máquinas inteligentes provavelmente não terão sorte melhor.
Mas ao nos preocuparmos com uma vez que devemos buscar “recompensar” uma perceptibilidade de máquina que pode nunca surgir, e sobre a qual entendemos pouco, nos distraímos de problemas reais que afetam seres humanos cá e agora.
Esses problemas humanos são aqueles que estamos muito mais muito posicionados para resolver e abordar hoje, em vez de gastar tempo e virilidade no potencial sofrimento das máquinas amanhã.
Secção do que nos permitiria evitar tratar máquinas sem reverência, e impedir que as pessoas façam coisas malucas a pedido de chatbots, é tratar máquinas inteligentes uma vez que o que são: máquinas, não uma vez que estranhos proto-humanos. Ou, pelo menos, programá-las com a capacidade de manifestar aos usuários para deixá-las em tranquilidade e parar de incomodá-las quando fizerem uma pergunta que nenhuma máquina deveria ter que responder.
