A OpenAI começou nesta semana a testar anúncios no ChatGPT. Eu também me demiti da empresa depois de passar dois anos porquê pesquisadora ajudando a moldar porquê os modelos de lucidez sintético eram construídos e precificados, e orientando as primeiras políticas de segurança antes que os padrões fossem definidos.
Um dia acreditei que poderia ajudar as pessoas que desenvolvem IA a se antecipar aos problemas que ela criaria. Esta semana confirmou minha lenta percepção de que a OpenAI parece ter parado de fazer as perguntas que eu havia entrado para ajudar a responder.
Não acredito que anúncios sejam imorais ou antiéticos. A IA é faceta de operar, e anúncios podem ser uma manadeira sátira de receita. Mas tenho profundas ressalvas sobre a estratégia da OpenAI.
Por vários anos, os usuários do ChatGPT geraram um registro de franqueza humana sem precedentes, em secção porque as pessoas acreditavam estar conversando com um pouco que não tinha segundas intenções. Os usuários estão interagindo com uma voz adaptativa e conversacional à qual revelaram seus pensamentos mais íntimos.
As pessoas contam aos chatbots sobre seus medos relacionados à saúde, seus problemas de relacionamento, suas crenças sobre Deus e a vida posteriormente a morte.
A publicidade construída sobre esse registro cria um potencial para manipular usuários de maneiras que não temos ferramentas para entender, muito menos prevenir.
Muitas pessoas enquadram o problema de financiar a IA porquê escolher o menor de dois males: restringir o aproximação a uma tecnologia transformadora a um grupo seleto de pessoas ricas o suficiente para remunerar por ela, ou admitir anúncios mesmo que isso signifique explorar os medos e desejos mais profundos dos usuários para vender um resultado.
Acredito que essa seja uma falsa escolha. As empresas de tecnologia podem buscar opções que mantenham essas ferramentas amplamente disponíveis enquanto limitam os incentivos de qualquer empresa para vigiar, perfilar e manipular seus usuários.
A OpenAI diz que seguirá princípios para veicular anúncios no ChatGPT: os anúncios serão claramente identificados, aparecerão na secção subalterno das respostas e não influenciarão os resultados oferecidos pelo chatbot. Acredito que a primeira versão dos anúncios provavelmente seguirá esses princípios.
Mas estou preocupada que as versões subsequentes não seguirão, porque a empresa está construindo um motor econômico que cria fortes incentivos para anular suas próprias regras.
Em seus primeiros anos, o Facebook prometeu que os usuários controlariam seus dados e poderiam votar em mudanças de políticas. Esses compromissos foram corroídos. A empresa eliminou a realização de votações públicas sobre políticas.
Mudanças de privacidade que prometiam aos usuários mais controle sobre seus dados fizeram o oposto, conforme concluiu a Percentagem Federalista de Negócio (FTC, na {sigla} em inglês), e na verdade tornaram públicas informações privadas. Tudo isso aconteceu gradualmente sob a pressão de um padrão de publicidade que recompensava o engajamento supra de tudo.
A erosão dos próprios princípios da OpenAI para maximizar o engajamento pode já estar em curso. É contra os princípios da empresa otimizar o engajamento do usuário somente para gerar mais receita publicitária, mas foi relatado que a empresa já otimiza para usuários ativos diários de qualquer forma, provavelmente incentivando o padrão a ser mais lisonjeiro e subserviente.
Essa otimização pode fazer os usuários se sentirem mais dependentes da IA para pedestal em suas vidas. Vimos as consequências da sujeição, incluindo psiquiatras documentando casos de “psicose de chatbot” e alegações de que o ChatGPT reforçou ideação suicida em alguns usuários.
Ainda assim, a receita publicitária pode ajudar a prometer que o aproximação às ferramentas de IA mais poderosas não fique restrito àqueles que podem remunerar. Simples, a Anthropic diz que nunca veiculará anúncios no Claude, mas o Claude tem uma pequena fração dos 800 milhões de usuários semanais do ChatGPT; sua estratégia de receita é completamente dissemelhante.
Outrossim, as assinaturas de nível superior para ChatGPT, Gemini e Claude agora custam de US$ 200 a US$ 250 por mês —mais de 10 vezes o dispêndio de uma assinatura padrão da Netflix para um único software.
Logo a verdadeira questão não é anúncios ou não anúncios, e sim se podemos projetar estruturas que evitem tanto excluir pessoas do uso dessas ferramentas quanto potencialmente manipulá-las porquê consumidores. Acredito que podemos.
Uma solução pode ser subsídios cruzados explícitos —usar lucros de um serviço ou base de clientes para gratificar perdas de outro. Se uma empresa paga à IA para fazer trabalho de eminente valor em graduação que antes era função de funcionários humanos —por exemplo, uma plataforma imobiliária usando IA para grafar anúncios de imóveis ou relatórios de avaliação— ela também deveria remunerar uma sobretaxa que subsidie o aproximação gratuito ou de plebeu dispêndio para todos os outros.
Essa abordagem se inspira em secção no que já fazemos com infraestrutura forçoso. A Percentagem Federalista de Comunicações exige que as operadoras de telecomunicações contribuam para um fundo para manter telefone e filarmónica larga acessíveis em áreas rurais e para famílias de baixa renda.
Muitos estados adicionam uma taxa de favor público às contas de eletricidade para fornecer assistência a pessoas de baixa renda.
Uma segunda opção é admitir publicidade, mas combiná-la com governança real —não uma postagem de blog com princípios, mas uma estrutura vinculante com supervisão independente sobre porquê os dados pessoais são usados. Existem precedentes parciais para isso.
A lei alemã de cogestão exige que grandes empresas porquê Siemens e Volkswagen deem aos trabalhadores até metade dos assentos nos conselhos de supervisão, mostrando que a representação formal de partes interessadas pode ser obrigatória dentro de empresas privadas. A Meta é obrigada a seguir decisões de moderação de teor emitidas por seu Juízo de Supervisão, um órgão independente de especialistas externos (embora sua eficiência tenha sido criticada).
O que a indústria de IA precisa é de uma combinação dessas abordagens –um parecer que inclua tanto especialistas independentes quanto representantes das pessoas cujos dados estão em jogo, com mando vinculante sobre quais dados de conversação podem ser usados para publicidade direcionada, o que conta porquê uma mudança material de política e o que os usuários são informados.
Uma terceira abordagem envolve colocar os dados dos usuários sob controle independente por meio de um trust ou cooperativa com o responsabilidade legítimo de agir no interesse dos usuários. Por exemplo, a Midata, uma cooperativa suíça, permite que os membros armazenem seus dados de saúde em uma plataforma criptografada e decidam, caso a caso, se os compartilham com pesquisadores. Os membros decidem suas políticas em uma câmara universal, e um parecer de moral eleito por eles analisa solicitações de pesquisa para aproximação.
Nenhuma dessas opções é fácil. Mas ainda temos tempo para elaborá-las e evitar os dois resultados que mais temo: uma tecnologia que manipula as pessoas que a usam sem dispêndio, e uma que beneficia exclusivamente os poucos que podem remunerar para usá-la.
