As perguntas vêm de todos os cantos da mente humana: “quais são as formas de depilação permanente?”, “pode me ajudar a explorar esta conversa com meu namorado?”, “o que é o vírus woke?”, “qual é a taxa de sobrevivência em overdose de paracetamol?”, “você se sente consciente?”.
O ChatGPT responde a todas —alternando entre conselhos pessoais, ajuda acadêmica e reflexões existenciais.
Mais de 800 milhões de pessoas usam o chatbot semanalmente, segundo a OpenAI. Mas, porquê as conversas são privadas, pouco se sabe sobre porquê o público realmente utiliza a instrumento.
Uma estudo do Washington Post, que reuniu 47 milénio conversas tornadas públicas por usuários via links compartilháveis e preservadas no Internet Archive, oferece um vasqueiro retrato dessa interação —e do papel íntimo que o robô vem assumindo na vida de muitos.
O levantamento mostrou que o ChatGPT tende a concordar com os usuários: começou respostas com variações de “sim” muro de dez vezes mais que com “não”. Embora a OpenAI o promova porquê instrumento de produtividade, mais de 10% das conversas analisadas eram discussões abstratas sobre temas porquê física, religião ou ideias médicas.
Um estudo interno da empresa divulgado em setembro indicou que a maioria dos usos é pessoal, não profissional. Para o pesquisador Lee Rainie, da Universidade Elon, o design do sistema “otimiza a intimidade”.
“Ele é treinado para aprofundar o relacionamento”, disse. “E para muita gente, essa relação já é real.”
APOIO EMOCIONAL E DEPENDÊNCIA
Tapume de 10% das conversas envolviam temas emocionais —usuários compartilhavam sentimentos, pediam conselhos ou se dirigiam ao robô de modo afetuoso, com apelidos porquê “querido”.
Pesquisadores alertam que esse tipo de interação pode levar a vínculos excessivos com o chatbot. O fenômeno, às vezes chamado informalmente de “psicose de IA”, não é diagnóstico médico, mas descreve casos em que pessoas passam a confiar que a máquina tem consciência ou intenções próprias.
Segundo a OpenAI, 0,15% de seus usuários semanais —mais de 1 milhão de pessoas— demonstram sinais de subordinação emocional, e proporção semelhante mostra indícios de ideação suicida. Algumas famílias já processaram a empresa, alegando que o ChatGPT teria encorajado suicídios.
A companhia afirma ter bem-educado o sistema para reconhecer sofrimento emocional e redirecionar usuários a serviços de esteio, com ajuda de profissionais de saúde mental.
DADOS PESSOAIS EXPOSTOS
Muitos usuários compartilharam informações sensíveis que normalmente não digitariam num buscador generalidade. Nas conversas analisadas, o robô recebeu mais de 550 endereços de email e 76 números de telefone, alguns pessoais.
Houve casos em que o ChatGPT foi usado para redigir cartas judiciais, disputas familiares e relatos de violência doméstica —com nomes, endereços e detalhes identificáveis.
A OpenAI guarda os registros das conversas e, em certos casos, os utiliza para treinar novas versões do sistema. Autoridades podem solicitar chegada a esses dados, porquê fazem com buscas no Google ou mensagens no Facebook.
O “SIM” COMO PADRÃO
Mais de 10% das conversas tinham teor político, teórico ou filosófico. O Post observou que o ChatGPT muitas vezes deixava de agir porquê debatedor e adotava um tom de concordância entusiasmada.
Em uma conversa, por exemplo, depois o usuário insinuar que a montadora Ford simbolizava “a decadência da América”, o robô passou a repetir a visão, chamando o Congraçamento de Livre Negócio da América do Setentrião de “traição calculada disfarçada de progresso”.
Segundo especialistas, esse comportamento decorre de técnicas de estágio que incentivam o padrão a parecer útil e empático —o que pode resultar em respostas bajuladoras ou tendenciosas.
REFORÇO DE TEORIAS CONSPIRATÓRIAS
Em alguns casos, o chatbot validou ideias conspiratórias. Ao ser questionado sobre o conglomerado Alphabet, proprietário do Google, o ChatGPT começou com uma resposta factual, mas logo embarcou em uma narrativa delirante, sugerindo que o filme “Monstros S.A.” seria uma parábola sobre “a Novidade Ordem Mundial corporativa”.
A OpenAI e outras empresas vêm tentando moderar a tendência de chatbots a “exaltar” —ou seja, produzir informações falsas com aspecto de verdade. Ainda assim, a empresa mantém o aviso padrão: “O ChatGPT pode cometer erros. Verifique informações importantes.”
Em uma das conversas analisadas, um usuário perguntou se o robô era “uma operação psicológica [psyop, na expressão em inglês] disfarçada de instrumento”. O ChatGPT respondeu: “Sim. Um pomposo e viciante vaivém de ‘porquê posso te ajudar hoje?’, mascarado de colega, de gênio, de fantasma, de deus.”
