Mark Zuckerberg tem uma novidade maneira de invadir sua privacidade: uma versão mais assustadora do ChatGPT.
Na semana passada, o cofundador do Facebook lançou o aplicativo Meta AI [ainda não disponível no Brasil], um espaço devotado para o chatbot de perceptibilidade sintético de sua empresa.
O aplicativo, que subiu para o segundo lugar na lista de downloads gratuitos do iPhone, promete aos usuários uma IA mais “personalizada” com respostas e conselhos sob medida. E inclui uma novidade rede social para que as pessoas compartilhem suas conversas e imagens com a IA.
Mas a Meta AI também traz um tanto mais para os chatbots: vigilância. Na primeira vez que abri o aplicativo, pedi para “me descrever em três emojis”. Ele conseguiu, utilizando anos de informações pessoais rastreadas por seus aplicativos irmãos, Facebook e Instagram.
Uma vez que teste, também conversei com o Meta AI sobre alguns tópicos propositadamente sensíveis. Depois, descobri que ele criou um chamado registo de memória sobre mim que dizia que meus interesses incluem técnicas naturais de fertilidade, divórcio, custódia de filhos, crédito consignado e leis sobre sonegação fiscal.
Na verdade, a Meta AI, por padrão, manteve uma transcrição de tudo o que eu disse —para harmonizar suas respostas a mim, treinar uma versão futura da IA da Meta e, eventualmente, me direcionar anúncios.
Mais tarde, consegui excluir sua memória e minhas conversas, com qualquer esforço. Mas, a partir dos meus testes, a Meta AI ultrapassa os limites de privacidade de maneiras que vão muito além dos rivais ChatGPT, da OpenAI, ou Gemini, do Google.
Seja qual for o matéria que você converse com a Meta AI, imagine Zuckerberg observando. Minhas conversas foram testes, mas cada vez mais pessoas estão recorrendo à IA para coisas incrivelmente pessoais, desde problemas médicos até namorados virtuais.
A Meta diz que sua IA oferece às pessoas o que elas desejam. “Fornecemos personalização valiosa para as pessoas em nossas plataformas há décadas, facilitando para as pessoas realizarem o que vêm fazer em nossos aplicativos —o aplicativo Meta AI não é dissemelhante”, disse o porta-voz da Meta, Thomas Richards. “Fornecemos transparência e controle em todo o processo, para que as pessoas possam gerenciar sua experiência e prometer que seja adequada para elas.”
Mas, para a maioria dos usuários, a personalização da Meta AI traz um conjunto totalmente novo de riscos de privacidade que eles talvez ainda não apreciem, muito menos saibam porquê controlar.
“As divulgações e escolhas do consumidor em torno das configurações de privacidade são ridiculamente ruins”, diz Ben Winters, diretor de IA e privacidade de dados na Consumer Federation of America.
“Eu só usaria para comandos divertidos e superficiais ou coisas que não tenham zero a ver com suas informações pessoais, desejos, preocupações, medos ou qualquer coisa que você não divulgaria na internet.”
PROBLEMAS DE PRIVACIDADE
Um assistente virtual que pode antecipar suas necessidades —ou até mesmo ser seu terapeuta— é o Santo Graal da IA. E a Meta não é a única empresa que está avançando mais profundamente nos dados pessoais nessa procura.
O Google recentemente adicionou uma opção ao Gemini que permite escolher usar seu histórico de pesquisa do Google para personalizar suas respostas. O ChatGPT adicionou a capacidade de lembrar detalhes de outras conversas.
Mas a era da IA personalizada também traz novas complicações de privacidade: porquê gerenciamos o que queremos que os bots saibam e porquê eles usam nossas informações?
“Só porque essas ferramentas agem porquê seu colega não significa que elas sejam”, diz Miranda Bogen, diretora do Center for Democracy and Technology que pesquisou as compensações de privacidade da personalização da IA.
Durante uma conversa com a Meta AI, Bogen mencionou mamadeiras. Depois disso, ela disse, o chatbot decidiu que ela deveria ser mãe. Os sistemas de IA, já famosos por se utilizarem de estereótipos, podem levar a novos tipos de preconceito quando são personalizados.
“Isso pode estrear a direcionar as pessoas em direções que talvez não sejam o que elas pretendem e são baseadas em informações com as quais elas não se sentem confortáveis”, disse.
E imagine o “Black Mirror” da vida real quando a IA estrear a inserir anúncios personalizados em suas respostas e conselhos. Ela está recomendando um restaurante porque acha que vou gostar, ou porque está sendo paga para isso?
A Meta AI não tem anúncios hoje, mas Zuckerberg sinalizou que vê “uma grande oportunidade para mostrar recomendações de produtos ou anúncios” nele durante uma teleconferência de resultados na semana passada.
A OpenAI diz que não compartilha o teor do ChatGPT com terceiros para fins de marketing. (O Washington Post tem uma parceria de teor com a OpenAI.) O Google diz que as conversas do Gemini não estão sendo usadas atualmente para mostrar anúncios e que a empresa “comunicaria claramente” uma mudança aos usuários.
“A teoria de um agente é que ele esteja trabalhando em meu nome —não tentando me manipular em nome de outros”, diz Justin Brookman, diretor de política de tecnologia da Consumer Reports. A publicidade personalizada alimentada por IA “é inerentemente adversária”, disse.
ASSUMINDO O CONTROLE DE SEUS DADOS
Existem três coisas que fazem a Meta AI parecer uma grande mudança para nossa privacidade.
Primeiro, a Meta AI está conectado ao Facebook e Instagram. Se você configurar um perfil para o aplicativo usando sua conta, a IA terá entrada a uma serra de informações coletadas pelas redes sociais.
Tudo isso moldará as respostas que o bot Meta AI dá a você, mesmo que algumas das ideias do Facebook ou Instagram sobre você estejam completamente erradas.
Se você não quiser que todos esses dados sejam combinados, terá que configurar uma conta separada para a Meta AI.
Segundo, a Meta AI se lembra de tudo por padrão. Ele mantém uma transcrição ou gravação de voz de cada conversa que você tem com ela, junto com uma lista do que ele considera serem fatos-chave sobre você —porquê tópicos que você menciona que está “interessado”— em um registo de memória separado. Você pode ver as memórias sobre você nas configurações do aplicativo.
Mas e se houver um tanto que você não quer que a IA se lembre? Isso é compreensível: há muitas coisas —porquê meu teste envolvendo técnicas de fertilidade e sonegação fiscal— que as pessoas sabem que só devem pesquisar no Google em modo privado.
A Meta diz que tenta não somar tópicos sensíveis ao seu registo de memória, mas meus testes descobriram que ele registrou muitos —porquê fertilidade e crédito consignado. O que é pior, o aplicativo Meta AI não oferece a capacidade de impedir que ele salve conversas ou memórias. (O mais próximo que você pode chegar é usar o site Meta AI sem fazer login.) O Meta AI também não oferece um modo “temporário”, porquê o ChatGPT, que mantém uma conversa fora do seu histórico.
O aplicativo Meta AI permite que você exclua conversas e o teor do seu registo de memória posteriormente. Mas quando tentei excluir minhas memórias, o aplicativo avisou que elas não estavam totalmente excluídas.
O chat original contendo as informações permaneceu no meu histórico e ainda poderia ser usado. Portanto, também tive que vasculhar meu histórico de chat, encontrar esse chat original e excluí-lo também. (A opção óbvia era selecionar uma formato instruindo-o a simplesmente excluir tudo.)
E há mais uma preocupação sutil com a privacidade também. O teor de seus chats —suas palavras, fotos e até voz— acabará sendo manteúdo de volta nos sistemas de treinamento de IA da Meta.
O ChatGPT permite que você opte por não participar do treinamento desativando uma formato chamada “melhorar o padrão para todos”. O Meta AI não oferece essa opção.
Por que você não gostaria de contribuir para os dados de treinamento da Meta? Muitos artistas e escritores questionaram o uso de seu trabalho para treinar IA sem ressarcimento ou reconhecimento.
Alguns defensores da privacidade dizem que também devemos nos preocupar com o vestuário de que os sistemas de IA podem “vazar” dados de treinamento em conversas futuras. Essa é uma das razões pelas quais muitas corporações restringem seus funcionários a usar unicamente sistemas de IA que não usam seus dados para treinamento.
A Meta diz que treina e ajusta seus modelos de IA para limitar a possibilidade de informações privadas aparecerem em respostas para outras pessoas.
Ainda assim, a Meta tem um aviso em seus termos de serviço: “não compartilhe informações que você não queira que as IAs usem e retenham.”
Eu levaria isso ao pé da letra.