No filme “Ela”, um plumitivo solitário chamado Theodore Twombley se apaixona pela voz incorpórea de Samantha, uma assistente virtual interpretada pela atriz Scarlett Johansson.
“Não posso confiar que estou tendo essa conversa com meu computador”, diz Twombley para Samantha. “Você não está. Você está tendo essa conversa comigo”, diz Samantha.
A genialidade do roteiro de Spike Jonze está em sua exploração das fronteiras entre o sintético e o real. Mas, hoje, o filme de ficção científica de 2013 adquiriu uma sonância irônica depois que a OpenAI lançou seu mais recente chatbot de perceptibilidade sintético (IA) multimodal GPT-4o, aparentemente imitando a voz de Johansson.
Johansson disse que recusou os pedidos da OpenAI para usar sua voz, acrescentando que ficou “chocada e irritada” ao desenredar que a empresa havia implantado uma voz “assustadoramente semelhante” à sua.
Ela pediu maior transparência e uma legislação apropriada para prometer que os direitos individuais fossem protegidos. A OpenAI interrompeu o uso da voz, que mais tarde explicou pertencer a outra pessoa não identificada.
O incidente pode ter parecido um renitência de uma notoriedade para os representantes que participaram da Cúpula de Segurança de IA em Seul nesta semana. Mas a disputa ecoa três preocupações mais gerais sobre a IA generativa: o roubo de identidade, a corrosão da propriedade intelectual e a erosão da crédito.
As empresas de IA conseguem implementar essa tecnologia de forma responsável? Aflitivamente, até mesmo alguns dos responsáveis pela segurança estão fazendo essa pergunta.
Na semana passada, Jan Leike renunciou porquê patrão de uma equipe de segurança na OpenAI posteriormente a saída de Ilya Sutskever, um dos cofundadores e cientista-chefe da empresa.
No X, Leike afirmou que a segurança havia sido deixada de lado na empresa em prol de “produtos reluzentes”. Ele argumentou que a OpenAI deveria destinar muito mais recursos à segurança, confidencialidade, alinhamento humano e impacto social.
“Esses problemas são bastante difíceis de resolver, e estou preocupado que não estejamos em uma trajetória para resolvê-los”, escreveu.
Em suas próprias declarações posteriormente deixar a empresa, Sutskever disse estar optimista de que a OpenAI construirá uma IA que seja “tanto segura quanto benéfica”.
No entanto, Sutskever foi um dos membros do recomendação da empresa que no ano pretérito tentaram destituir o CEO Sam Altman.
Depois que Altman foi reintegrado posteriormente um levante dos funcionários, Sutskever disse que lamentava sua participação no golpe. Mas sua própria saída removerá mais um contrapeso para Altman.
Não é exclusivamente a OpenAI que tem enfrentado dificuldades na implementação da tecnologia de IA. O Google teve seus próprios problemas com a IA generativa quando seu chatbot Gemini gerou imagens anacrônicas de soldados nazistas negros e asiáticos.
Ambas as empresas afirmam que os erros são inevitáveis ao lançar novas tecnologias e respondem rapidamente aos seus erros.
Ainda assim, transmitira maior crédito se as principais empresas de IA fossem mais transparentes. Elas têm um longo caminho a percorrer, porquê mostrado pelo Foundation Model Transparency Índice, publicado esta semana pela Universidade de Stanford.
O índice, que analisa dez principais desenvolvedores de modelos em centena indicadores, incluindo entrada aos dados, confiabilidade do padrão, políticas de uso e efeitos em cascata, destaca porquê as grandes empresas têm tomado medidas para melhorar a transparência nos últimos seis meses, embra alguns modelos permaneçam “extremamente opacos”.
“O que esses modelos permitem e proíbem definirá nossa cultura. É importante examiná-los”, disse Percy Liang, diretor do Stanford’s Center for Research on Foundation Models.
O que mais o preocupa é a concentração de poder corporativo. “O que acontece quando algumas organizações controlam o teor e o comportamento dos futuros sistemas de IA?”
Essas preocupações podem nutrir demandas por mais mediação regulatória, porquê a Lei da IA da UE, que recebeu aprovação do Recomendação Europeu.
Mais de um quarto das legislaturas estaduais dos EUA também estão considerando projetos de lei para regular a IA. Mas alguns no setor temem que a regulamentação possa exclusivamente fortalecer o domínio das grandes empresas de IA.
“As vozes na sala são as das big techs. Elas podem solidificar seu poder por meio da regulamentação”, disse Martin Casado, sócio de investimentos na empresa de capital de risco Andreessen Horowitz.
Os legisladores precisam prestar muito mais atenção à “little techs”, as dezenas de startups que usam modelos de IA de código lhano para competir contra os grandes players.
Dez países e a UE na cúpula de Seul concordaram esta semana em estabelecer uma rede internacional de institutos de segurança para monitorar o desempenho de modelos de IA de fronteira, o que é bem-vindo.
Mas eles devem agora ouvir Johansson e investigar muito mais profundamente as estruturas corporativas poderosas que implementam esses modelos.