Ideia De Que Ia Ameaça Humanos é Distração, Diz Filósofo

Ideia de que IA ameaça humanos é distração, diz filósofo – 29/03/2024 – Mercado

Tecnologia

“Moral na Perceptibilidade Sintético” começa com o que parece ser um subtileza. Seu prefácio foi escrito pelo ChatGPT, “com um prompt de comando proposto e revisto pelo responsável” —não é exatamente o que se espera de um livro que procura discutir a interação entre tecnologia e moralidade.

“É uma provocação”, diz o responsável em questão, o filósofo belga Mark Coeckelbergh, em entrevista à Folha. “Usamos o GPT tão facilmente hoje. Qual será o efeito disso? O que ele está fazendo é realmente ortografar? Se sim, porquê isso difere da escrita humana? Quanto queremos dar a ele esse papel?”

A referência ao programa é também um jeito de o pesquisador, um dos membros do grupo de especialistas que ajudou a gerar o marco regulatório de perceptibilidade sintético (IA) confirmado pelo Parlamento Europeu na semana retrasada, mostrar que não está alheio à popularidade do bot.

A obra, escrita em 2020 e lançada agora no Brasil pela Ubu, se propõe a traçar uma espécie de introdução às principais questões éticas suscitadas pelo progressão da perceptibilidade sintético.

Entre os assuntos que ela aborda estão, por exemplo, o “status moral” de máquinas e porquê isso impacta as leis que criamos para regulá-las; vieses algorítmicos e relações de poder no mercado de tecnologia; e porquê conceitos porquê transumanismo, isto é, a teoria de que o ser humano pode ser rebuscado por meio da ciência, se encaixam nesse debate.

Se o livro evita fazer julgamentos, servindo mais porquê um quadro das diversas perspectivas em jogo na espaço, em um ponto Coeckelbergh é taxativo. A teoria de que as máquinas estão perto de tomar o controle não só é ilusória quando pensamos na tecnologia disponível hoje porquê perigosa. “Isso nos distrai dos problemas reais”, diz ele.

O livro foi publicado originalmente em 2020, quando o ChatGPT, por exemplo, ainda não tinha sido lançado. No texto, o senhor afirma que a legislação relacionada a IA é insuficiente. Porquê avalia a situação hoje?

Quando comecei a ortografar o livro, não havia nenhum tipo de regulamentação nesse campo; nos últimos anos, houve um processo de transformação de princípios éticos em diretrizes práticas. Portanto diria que hoje há muito mais ênfase no vista permitido e político da IA, e que cada vez mais pessoas estão tomando consciência sobre o tema.

Também acho que a legislação europeia é bastante avançada em verificação com planos de regulamentação de outros lugares do mundo. Isso não significa que ela seja perfeita. Outrossim, embora o projeto tenha sido confirmado, ele ainda não foi implementado, o que ainda vai demorar.

Não sou jurisconsulto, mas vejo a lei porquê uma espécie de tecnologia, capaz de modificar comportamentos. E ainda quero ver que tipo de transformações essas diretrizes vão promover, se empresas e governos de veste mudarão a forma porquê trabalham.

É um problema muito dissemelhante de questionar que tipo de valores queremos perpetuar — acho que hoje estamos em um outro estágio. Mesmo assim, considero importante continuar a fazer essas perguntas [sobre ética].

E porquê vê a questão da regulamentação nos Estados Unidos, em próprio depois da missiva em que várias big techs do Vale do Silício pediam uma pausa no desenvolvimento da IA?

Os Estados Unidos são um bom exemplo sobre porquê culturas políticas diferentes podem impactar a discussão sobre o tema. Lá, a abordagem é mais liberal: empresas privadas lidam com a questão caso a caso, a palavra-chave é autorregulação.

[Joe] Biden até publicou um decreto sobre IA, mas ele pode ser revertido, por exemplo se [Donald] Trump for eleito novamente. De todo modo, é uma regulamentação muito mais limitada do que da Europa, o que reflete, é evidente, as ideias que as pessoas têm sobre o papel do Estado. Nesse sentido, seria interessante saber o que está acontecendo no Brasil.

Por falar em Brasil, estamos falando de uma sociedade que é grande usuária de redes sociais, mas na qual murado de 1 em cada 10 pessoas é analfabeta funcional. Porquê a IA pode interferir nesse contexto?

Sabemos que a IA molda o ecossistema de conhecimento de uma forma que amplia a desinformação e as possibilidades de manipulação. Se temos pessoas que não só não são educadas para mourejar com a IA porquê ainda por cima não sabem interpretar textos, elas podem ser presas fáceis, fornecendo seus dados sem saber que o estão fazendo ou sendo manipuladas, recebendo informações falsas.

Portanto, precisamos das habilidades básicas [de leitura e interpretação de texto] e também de uma alfabetização extra em IA. E é verdade que, quando falamos sobre ensino e IA, muitas vezes não percebemos que existe também uma lanço anterior que pode estar faltando. Na moral da IA, a ensino é absolutamente fundamental.

Um termo que vem circulando para descrever o que estamos vivendo hoje é o “tecnofeudalismo”, em que os “senhores feudais” seriam as big techs, e todos os demais, os servos, que pagam “aluguéis da nuvem” pelo recta de acessar o que essas organizações possuem. O sr. concorda com a frase? E porquê vê a situação das grandes empresas de tecnologia, que monopolizam cada vez mais o mercado?

Sem dúvidas, a situação é de uma diferença gigantesca de poder entre as big techs e os cidadãos comuns, que praticamente não têm influência em relação ao que essas empresas fazem. Precisamos clicar em “concordar os termos de uso”. Mas isso não consiste exatamente em um conciliação com os usuários, não acha?

Quanto ao concepção de tecnofeudalismo, sou cético em relação a ele porque acho que ainda vivemos em uma forma de capitalismo. Ele está mudando, mas ainda é um capitalismo. Ao mesmo tempo, o termo pode servir para invocar a atenção para essas enormes diferenças de poder e para o veste de que é preciso fazer um pouco em relação a elas.

Um exemplo: imagine um governo mais à esquerda que quer fazer um pouco acerca dessas diferenças de poder e consegue gerar um sistema de justiça social no seu país. O problema é que, com essas empresas, essas diferenças de poder se manifestam em uma graduação global. Surge portanto um duelo: é muito difícil fazer um pouco no seu país se tecnologias que são desenvolvidas em outro lugar têm tanta influência.

Existe, portanto, um problema relacionado a soberania e ao poder da política democrática na era do dedo.

Um dos principais argumentos do livro é que focar demais os perigos de uma IA ‘”superinteligente” nos distrair dos perigos das demais IAs. Explicaria essa teoria?

Alguns, não só CEOs de big techs porquê filósofos, têm alertado sobre os riscos existenciais [da IA]. No livro, argumento que isso nos distrai dos problemas reais porque é uma projeção sobre um porvir distante, e sou muito cético quanto à nossa capacidade de prever esse porvir distante.

O que é útil saber são as limitações de tecnologias porquê o ChatGPT, de modo que os usuários consigam entender que ele não é uma “máquina da verdade”. Na minha opinião, se as big techs optam por furar essas tecnologias para uso universal, elas também deveriam mostrar suas limitações. E essas empresas até falam dos problemas da IA —mas do que aconteceria se ela dominasse o mundo. Para mim, essa não é a principal questão.

Isso dito, também é verdade que estamos vendo com cada vez mais frequência IAs sendo usada para fins militares, e há um risco nisso. Mas não é o ChatGPT que está fazendo isso.

O livro enumera uma série de questões éticas relacionadas ao desenvolvimento da IA. Ao mesmo tempo, é bastante neutro, no sentido de que basicamente traça um quadro desses problemas. Desses desafios que o sr. cita, qual é o mais importante, na sua opinião?

Porquê filósofo, meu objetivo era, basicamente, explicar por que tínhamos de pôr os humanos no controle dessa tecnologia. Um dos motivos é a questão da responsabilidade, da prestação de contas: temos que conseguir responder a quem é afetado pela IA.

O livro menciona a teoria de que as próprias IAs deveriam ter direitos, um argumento que o sr. caracteriza de transumanista. Qual é sua opinião pessoal sobre ela?

É um argumento transumanista no sentido de que, se todas essas máquinas inteligentes têm as mesmas habilidades que os humanos, também precisamos conceder direitos a elas. Eu questiono essa perspectiva. Por outro lado, sempre acho interessante pensar no status moral de “não humanos”. Porque isso nos faz refletir sobre porquê o atribuímos.

Em universal, buscamos certas características. Por exemplo, queremos ver se aquele ser é senciente [capaz de ter sensações e impressões] ou consciente. Houve um engenheiro que disse confiar que o padrão de linguagem com que trabalhava era senciente [o ex-funcionário do Google Blake Lemoine].

Problematizo isso, porque nem sempre é fácil saber se esse é o caso. Não sei nem mesmo se você [a repórter] é senciente, porque só tenho a sua imagem na tela.


Relâmpago-X | Mark Coeckelbergh, 48

Professor de filosofia na Universidade de Viena, na Áustria, é membro do Grupo de Especialistas de Basta Nível da Percentagem Europeia sobre Perceptibilidade Sintético. Publicou mais de 15 livros no campo da filosofia da tecnologia.

Folha

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *