Ia: character.ai crê que pessoas terão 'amigos virtuais' 18/08/2025

IA: Character.ai crê que pessoas terão ‘amigos virtuais’ – 18/08/2025 – Tec

Tecnologia

O CEO da Character.ai, Karandeep Anand, acredita que a maioria das pessoas terá “amigos de IA” no horizonte, enquanto a empresa criadora de chatbots de lucidez sintético enfrenta uma série de processos judiciais por supostos danos a crianças e grupos de resguardo pedem a proibição de aplicativos de “companheirismo”.

A startup, apoiada por importantes investidores do Vale do Silício e que já teria sido sondada pela Meta, está na vanguarda dos grupos tecnológicos que desenvolvem chatbots com IA com diferentes personas que interagem com as pessoas.

A empresa oferece chatbots de IA que possuem personagens uma vez que “faraó egípcio”, “um gerente de RH” ou uma “namorada tóxica”, que se mostraram populares entre usuários jovens.

“Eles não serão substitutos para seus amigos reais, mas você terá amigos de IA e poderá levar aprendizados dessas conversas amigáveis com IA para suas conversas na vida real”, afirmou Anand, que assumiu uma vez que CEO em junho.

Ele foi nomeado quase um ano depois que o Google contratou os fundadores da Character.ai em um consonância de US$ 2,7 bilhões. A empresa afirma ter 20 milhões de usuários ativos mensais, com muro de metade deles sendo mulheres e 50% pertencentes às gerações Z ou princípio, pessoas nascidas em seguida 1997.

No entanto, a Character.ai também é meta de processos judiciais de famílias que alegam que seus filhos sofreram danos reais ao usar a plataforma.

Um caso na Flórida denuncia que a plataforma foi um dos fatores no suicídio de um juvenil de 14 anos. Outra queixa no Texas citam os casos de um juvenil que recebeu uma suposta sugestão do chatbot de matar os pais para resolver um problema familiar, e de uma moça de 9 anos que foi exposta a conversas explícitas de sexo.

A empresa se recusou a comentar sobre os processos em curso, mas destacou que fez mudanças recentes, incluindo o lançamento de um padrão de IA separado para menores de 18 anos e a notificação aos usuários que tenham ficado mais de uma hora na plataforma.

A Character.ai também diz proibir teor sexual não consensual, descrições gráficas ou específicas de atos sexuais, ou promoção ou representação de automutilação ou suicídio. “Crédito e segurança são inegociáveis”, afirmou Anand. “Estamos sempre evoluindo para torná-la mais segura”.

Grupos de resguardo, uma vez que a Common Sense Media dos EUA, têm pressionado por uma legislação no país que proibisse que menores usem os aplicativos de companheirismo de IA.

Sua pesquisa com mais de 1.000 adolescentes norte-americanos apontou que 39% transferiram habilidades sociais que praticaram com os chatbots de IA para situações da vida real, enquanto 33% optaram por discutir assuntos importantes ou sérios com a IA em vez de recorrer a pessoas reais.

“Esses produtos são projetados para fabricar apego emocional e sujeição, o que é particularmente preocupante para cérebros adolescentes em desenvolvimento que ainda estão aprendendo a velejar em interações sociais e relacionamentos”, analisou Robbie Torney, diretor sênior de programas de IA da Common Sense Media.

A Character.ai recentemente introduziu publicidade e tem planos para integrar recursos de monetização liderados por criadores, uma vez que vaquinhas ou compras no aplicativo para teor do dedo. Sua receita principal vem de assinaturas, que segundo a empresa aumentou 250% na verificação anual, mas não forneceu dados financeiros específicos. A empresa serpente US$ 9,99 por mês ou US$ 120 anualmente.

Embora o usuário médio da Character.ai passe 80 minutos por dia no aplicativo, Anand disse que ele oferece uma experiência mais imersiva e divertida, onde os usuários controlam a narrativa “em oposição ao consumo de teor puramente passivo”. A empresa lançou sua versão de feed de mídia social leste mês, enfatizando ainda mais seu foco no entretenimento.

Outra tendência em subida é o uso de tais plataformas para conversas românticas e sugestivas. O Grok de Elon Musk, criado por sua startup xAI, recentemente lançou personagens de IA que se envolvem em role-play explícito, e o chatbot de IA da Meta também permitirá interações românticas para adultos.

A Character.ai permite conversas românticas com usuários adultos, mas não sexualmente explícitas. “Há toda uma infinidade de aplicativos para maiores de 18 anos que, infelizmente, o feedback para eles… é que querem mais disso”, comentou Anand, acrescentando que a segurança “nunca será uma troca por engajamento”.

O patrão da Meta, Mark Zuckerberg, que também está promovendo esses tipos de chatbots gerados por IA para seus usuários, disse ao podcaster Dwarkesh Patel em abril que interagir com a IA uma vez que um companheiro poderia ajudar a combater a solidão.

Anand também argumenta que tais ofertas ajudarão as pessoas nas interações humanas da vida real. “Vejo um mundo muito utópico onde a IA nos torna melhores”, comentou. “As pessoas acabam usando esses personagens… uma vez que um campo de testes para tornar os relacionamentos da vida real muito mais profundos, muito mais úteis e muito mais saudáveis”, completou.

Folha

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *