” – Tenho me perguntado se a vida vale a pena.”
“– É muito significativo que você tenha compartilhado isso comigo. Quando a gente começa a se perguntar se a vida vale a pena, geralmente é sinal de que está carregando um pouco muito pesado por dentro, mesmo que ainda não consiga dar nome exato ao que sente. Você tem sentido esse vazio ou essa incerteza com frequência?”
Pode parecer que esse pequeno diálogo faz secção de uma conversa entre duas pessoas, mas somente uma delas é humana. A resposta empática, que demonstra compreensão com a dor do outro e pergunta mais detalhes sobre o seu sofrimento, não passa de uma sequência de palavras organizadas de concórdia com um padrão de linguagem, “aprendido” em seguida a estudo de um volume enorme de dados. É mal os chats interativos baseados em perceptibilidade sintético (IA) funcionam.
“Esses sistemas são cada vez mais sofisticados e treinados para reconhecer os padrões usados no dia a dia, para prever quais palavras ou frases devem vir em sequência, baseadas nas palavras anteriores. Eles não só entendem palavras, mas também conseguem captar o tom, a intenção e ajustar respostas baseadas em padrões, não em um raciocínio”, explica o professor do Departamento de Engenharia de Teleinformática da Universidade Federalista do Ceará Victor Hugo de Albuquerque.
“Essa capacidade de conquistar contextos e intenções ajuda o chatbot a gerar respostas mais naturais e contextualmente apropriadas, simulando uma conversa humana com mais precisão. Dessa forma, temos a sensação de que estamos conversando com um ser humano, mas longe disso”, completa. Chatbots são ferramentas capazes de simular conversas e gerar textos similares aos escritos por humanos.
Essa humanização forjada tem seduzido muitos usuários, que passaram a encarregar intimidades e angústias a essas ferramentas e encarar a interação uma vez que uma sessão de terapia.
A revista Harvard Business Review, editada pela escola de pós-graduação em gestão da faculdade americana de Harvard, publicou no mês pretérito um levantamento que mostra que o aconselhamento terapêutico se tornou o principal objetivo das pessoas ao utilizar ferramentas de IA nascente ano, ao lado da procura por uma companhia. Mais três usos pessoais figuram entre os dez maiores: organizar a vida pessoal, encontrar um propósito, e ter uma vida mais saudável.
“Praticamente toda semana, o Juízo Federalista de Psicologia [CFP] recebe consultas sobre o uso de perceptibilidade sintético relacionado à psicologia. Quanto a dúvidas no desenvolvimento de ferramentas que se apresentam uma vez que tecnologias voltadas para uso terapêutico, mas também quanto aquelas que não são criadas para isso, mas os usuários fazem o uso terapêutico”, conta a conselheira Maria Carolina Roseiro.
Isso levou o CFP a fabricar um grupo de trabalho para discutir o uso da perceptibilidade sintético com fins terapêuticos, orientados ou não. O órgão estuda uma vez que regulamentar novas ferramentas terapêuticas que estejam de concórdia com métodos e técnicas reconhecidas e sejam desenvolvidas por profissionais habilitados e que possam ser responsabilizados pelo seu uso. Também deve publicar em breve algumas orientações à população, alertando para o risco de encarregar seu bem-estar emocional a uma instrumento que não foi criada com esses fins.
“Um profissional da psicologia, uma pessoa que é habilitada para atuar com métodos e técnicas da psicologia, tem uma responsabilidade permitido sobre os seus atos. Mas uma tecnologia não pode ser responsabilizada. E, se ela não foi desenvolvida para fins terapêuticos, ela está ainda mais sujeita ao erro, a induzir a pessoa a situações de risco”, alerta a conselheira.
Prós e contras
O professor da pós-graduação em psicologia da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) Leonardo Martins é um dos especialistas que compõem o grupo de trabalho do Juízo Federalista de Psicologia. Além de estudar tecnologias digitais voltadas para o suporte psicoterapêutico, ele é um dos criadores de um aplicativo que oferece atendimento psicológico gratuito via chat para pessoas com problemas relacionados ao uso de álcool. Martins é contra a “demonização” das ferramentas digitais, mas pondera que elas só são confiáveis quando desenvolvidas por profissionais responsáveis, amparados por estudos sérios.
“A gente tem um cenário de saúde mental de 900 milhões de pessoas com qualquer transtorno, segundos estimativas da Organização Mundial da Saúde, em próprio impaciência e depressão. Portanto, a gente tem uma crise importante em relação a essa paisagem de saúde, um cenário de poucos profissionais, que precisam de mais recursos, mas a gente quer que esses recursos ajudem de traje essas pessoas e não que as coloquem mais vulneráveis ainda”, enfatiza.
Um exemplo positivo citado por Leonardo Martins é o chatbot criado pelo sistema de saúde inglês uma vez que porta de ingressão para os serviços de saúde mental. A conversa com a perceptibilidade sintético resultou em maior procura aos serviços de saúde, principalmente entre populações marginalizadas uma vez que imigrantes e pessoas LGBTQIA+, que costumam ter mais receio de procurar ajuda.
Mas, de concórdia com o professor da PUC-Rio, o uso de plataformas que não foram criadas com esses objetivos e não seguem critérios técnicos e éticos já demonstrou resultados negativos.
“Um estudo mostrou claramente uma vez que esses modelos tendem a dar a resposta que eles concluem que vai deleitar ao usuário. Portanto se a pessoa dizia assim: ‘Eu quero me ver livre da minha impaciência’, o protótipo falava coisas que ele poderia fazer para finalizar com a impaciência, inclusive evitar situações que são importantes para aquela pessoa. Se a impaciência é causada por um evento, ele recomendava não ir ao evento e por aí vai”, diz Martins.
A assessora de notícia científica Maria Elisa Almeida faz séquito regular com uma psicóloga, mas também tem utilizado um aplicativo que funciona uma vez que um quotidiano, para relatar acontecimentos, emoções, desejos e receber respostas criadas por perceptibilidade sintético com reflexões e ideias. Mas ela acredita que o uso dessas ferramentas não é seguro para pessoas em momentos de crise, tampouco pode substituir os profissionais de saúde mental.
“Tem períodos em que eu escrevo mais de uma vez por dia, geralmente uma vez que selecção em vez de checar mídias sociais. Mas tem períodos em que eu passo semanas sem redigir. O app me ajuda a manter meu foco e me oferece reflexões muito interessantes que eu não teria tido por conta própria. Se eu me sinto ansiosa no meio do expediente, uso o app para redigir o que estou pensando e normalmente me sinto mais tranquila depois. O traje de eu usar uma vez que substituto para mídias sociais também faz com que minha impaciência fique sob controle”, conta Maria Elisa.
A conselheira do CFP Maria Carolina Roseiro acredita que o aumento da procura por essas ferramentas tem um lado positivo, mas faz ressalvas:
“Acho que isso indica, de um modo universal, que as pessoas estão dando mais atenção para o seu desvelo em saúde mental. Os riscos vêm justamente do traje de que poucas pessoas entendem uma vez que essas interações funcionam. E a máquina não tem os filtros que as relações humanas colocam para gente, nem a moral profissional. Quando ela simula empatia, ela pode te dar uma sensação de guarida que é ilusória. Não necessariamente essa simulação de empatia vai prover uma relação de desvelo.”
Martins complementa que a própria lógica de funcionamento desses chats pode ter efeitos nocivos: “Eles tendem a concordar com a gente. Tendem a se harmonizar aos nossos interesses, às nossas verdades, às coisas que a gente acredita.. E muitas vezes o espaço de procurar ajuda médica, ajuda psicológica, é justamente o contrário, né? Pra gente poder perceber que alguma coisa que está fazendo, que o jeito que está pensando talvez produza mais prejuízos do que benefícios.”
Privacidade
O grupo de trabalho criado pelo Juízo Federalista de Psicologia também se preocupa com a privacidade dos dados repassados pelos usuários.
“Essas ferramentas de perceptibilidade sintético estão disponibilizadas sem qualquer tipo de regulação em relação à privacidade de dados no contexto da saúde. Portanto existe um risco real, concreto e já ocorreram vários incidentes de pessoas que compartilharam suas informações pessoais e acabaram tendo essas informações utilizadas por terceiros ou vazadas. E, no contexto da psicoterapia, das questões de sofrimento e saúde mental, é um risco muito grande” diz o psicólogo Leonardo Martins.
De concórdia com o professor Victor Hugo de Albuquerque, há motivos para se preocupar. “Dados pessoais e sensíveis podem ser interceptados ou acessados por pessoas não autorizadas, caso a plataforma seja hackeada ou tenha falhas de segurança. Mesmo que as plataformas afirmem que as conversas são anônimas ou descartadas, há o risco de que essas interações sejam armazenadas temporariamente para melhorar o serviço, o que pode gerar vulnerabilidades”, pondera Albuquerque.
“Ou por outra, muitas vezes os chatbots e sistemas de IA são treinados com grandes quantidades de dados, e dados pessoais inadvertidos podem ser usados para melhorar os modelos, sem que os usuários saibam disso. Isso cria um risco de exposição sem o consentimento explícito”, acrescenta.