EUA: falsas informações geradas por IA geram processos 16/11/2025

EUA: falsas informações geradas por IA geram processos – 16/11/2025 – Tec

Tecnologia

Os representantes de vendas da Wolf River Electric, empresa de força solar de Minnesota (EUA), começaram a notar no final do ano pretérito um aumento incomum no número de contratos cancelados, e quando foram questionar os antigos clientes, ouviram explicações que os deixaram perplexos.

Disseram que cortaram relações depois de deslindar, por meio do Google, que a companhia tinha feito um combinação com o procurador-geral do estado por práticas comerciais enganosas —o problema é que ela nunca tinha sido processada pelo governo, muito menos feito um pacto envolvendo tais alegações.

A confusão se transformou em preocupação quando os executivos resolveram fazer a verificação por conta própria —e os resultados que o Gemini, tecnologia de IA (Perceptibilidade Sintético) do Google, apresentava já no topo da página incluindo as falsidades, além das menções a um combinação judicial que apareciam maquinalmente quando digitavam “Wolf River Electric” na caixa de pesquisa.

Uma vez que as revogações continuaram se acumulando, e as tentativas de usar as ferramentas do próprio mecanismo de pesquisa para emendar os problemas se mostraram vãs, os diretores se viram sem outra escolha a não ser processar o gigante da tecnologia por mordacidade.

“Investimos muito tempo e força para erigir nosso nome. Se o cliente vê um sinal de alerta porquê esse, é quase impossível reconquistá-lo”, lamentou Justin Nielsen, que fundou a Wolf River com três de seus melhores amigos em 2014 e ajudou a empresa a se tornar a maior fornecedora solar do estado.

Além desse, há pelo menos cinco outros processos semelhantes movidos nos dois últimos anos nos EUA por justificação de textos e imagens produzidos por ferramentas de IA. O argumento generalidade é que a tecnologia de ponta não só criou e publicou informações falsas e prejudiciais sobre indivíduos ou grupos, mas, em muitos casos, continuou a divulgá-las mesmo depois de as empresas —que criaram e lucram com esses modelos— serem informadas do problema.

Ao contrário de outras ações semelhantes, eles pretendem definir porquê difamatório o teor que não foi criado por seres humanos, noção inovador que fascina alguns especialistas. “Sem incerteza, esses modelos podem publicar afirmações prejudiciais.

A questão é: quem é responsável por elas?”, questiona Eugene Volokh, importante estudioso da Primeira Emenda da Constituição dos EUA na UCLA, Universidade de Califórnia, que, em 2023, dedicou uma edição inteira de sua publicação, a “Journal of Free Speech Law”, ao fenômeno.

Uma das primeiras ações foi ensejo na Geórgia (EUA), em 2023. O responsável, Mark Walters, radialista protector da Segunda Emenda, argumentou que o ChatGPT manchou sua reputação ao responder à pergunta de um jornalista sobre o recta ao porte de armas, afirmando falsamente que Walters fora culpado de peculato.

Nos EUA, uma questão crucial em casos porquê esse é provar a intenção, mas porquê é impossível saber o que se passa dentro dos algoritmos que impulsionam modelos porquê o chatbot em questão, o processo, e outros porquê ele, tentou atribuir a culpa à empresa que escreveu o código, nesse caso a OpenAI.

“Frankenstein não pode fabricar um monstro que sai por aí matando gente e depois alegar que não teve zero a ver com isso”, comparou John Monroe, legista de Walters.

O caso foi arquivado em maio, muito antes de chegar a julgamento. Entre outras razões, o tribunal observou que o jornalista admitiu não encarregar na asseveração e logo em seguida verificar que não era verdadeira. O pormenor —ou seja, o vestimenta de terceiros se convencerem ou não de que o teor supostamente difamatório é verdadeiro— é crucial em casos assim.

“Se a pessoa que lê a enunciação contestada não acredita subjetivamente que ela seja factual, logo não é difamatória”, escreveu a juíza Tracie Cason em sua sentença. A OpenAI não respondeu ao pedido de glosa da reportagem.

Até o momento, nenhum caso de mordacidade por IA nos EUA parece ter chegado a um júri, mas pelo menos um, movido contra a Meta em abril por Robby Starbuck, sabido por suas campanhas contra programas de variação, isenção e inclusão, foi resolvido.

O influenciador de direita alegou que, navegando na rede social X, deparou-se com uma imagem gerada pelo Llama —um dos chatbots de IA do conglomerado— afirmando que estivera no Capitólio durante os distúrbios de 6 de janeiro de 2021 e que tinha ligações com o QAnon. Starbuck garantiu que naquele dia estava em vivenda, no Tennessee, e que não tinha zero a ver com a teoria da conspiração.

Em agosto, a Meta chegou a um combinação sem nunca ter respondido formalmente à reclamação —e porquê segmento dele, contratou o querelante para ser seu consultor, com foco no policiamento da IA.

“Desde que começamos a trabalhar nessas questões importantes com Robby, fizemos avanços significativos para melhorar a precisão da IA e mitigar o viés ideológico e político”, afirmou a companhia em expedido na era. Entretanto, recusou-se a vulgarizar os termos adicionais do pacto ou revelar se Starbuck foi remunerado pela consultoria.

No mês pretérito, ele também entrou na justiça contra o Google. No processo por mordacidade, que pede US$ 15 milhões (tapume de R$ 79,5 mi) em indenização, alegou que os grandes modelos de linguagem da organização —tecnologia que ajuda a cevar os chatbots— fizeram declarações falsas sobre si. Dessa vez, porém, argumentou que os erros foram “consequência proposital da animosidade política incorporada ao algoritmo”.

O Google ainda não respondeu formalmente à reclamação, mas o porta-voz José Castañeda afirmou que as alegações eram de 2023 e foram resolvidas na era. “Uma vez que todos sabem, qualquer um que seja muito criativo pode fazer com que um chatbot diga alguma coisa enganoso.”

Nina Brown, professora de notícia da Universidade de Syracuse especializada em recta da mídia, aposta que exclusivamente alguns (ou nenhum) desses casos chegam a ser julgados. “Uma sentença que considere a empresa responsável pela produção de seu padrão de IA pode ser claro de uma enxurrada de processos movidos por aqueles descobrirem falsidades sobre si. Meu presciência é que os casos em que o réu é vulnerável acabem arquivados, com as empresas chegando a um combinação. Ninguém quer percorrer riscos”.

Uma vez que Volokh e diversos outros especialistas, ela considera o caso Wolf River particularmente robusto, em segmento porque a empresa conseguiu documentar perdas específicas devido à falsidade, citando na peça inicial US$ 388 milénio em rescisões contratuais.

O CEO da empresa, Vladimir Marchenko, disse em entrevista que também perdeu novos clientes. “Descobrimos que alguns concorrentes mencionam as alegações falsas quando recebem consultas de possíveis clientes para convencê-los a não nos contratar. Eu mesmo achei postagens no Reddit citando os resultados falsos, um deles inclusive rotulando a Wolf River de ‘mal-intencionada'”.

Na troca de correspondência com o Google, a companhia alegou ter perdido quase US$ 25 milhões (tapume de R$ 132,4 mi) em vendas em 2024 e pretende uma indenização totalidade de pelo menos US$ 110 milhões (R$ 582,7 mi). Entretanto, o processo está suspenso, pois o juiz (federalista) avalia manter o caso ou enviá-lo de volta ao tribunal estadual, onde foi apresentado em março.

O que pode proporcionar a Wolf River é o vestimenta de provavelmente não ser classificada porquê figura pública –e a relevo é importante porque, nos EUA, as figuras privadas têm um padrão menos exigente para provar a ocorrência de ocorreu calúnia, ou seja, basta exclusivamente provar que houve negligência. Não é preciso provar o que é sabido porquê “desprezo imprudente” pela verdade.

Em enunciação, Castañeda reconheceu que porquê com qualquer tecnologia novidade, podem sobrevir erros. “Logo que descobrimos o problema, agimos rapidamente para corrigi-lo”, garantiu.

No entanto, quem entrasse no Google em 10 de novembro para pesquisar alguma “reclamação contra a Wolf River Electric”, veria no resultado a informação de que “a empresa também está enfrentando um processo do procurador-geral de Minnesota relacionado às suas práticas de vendas”, sugerindo que os clientes “apresentem uma reclamação ao órgão, já que estão comprometidos com a companhia”.

Folha

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *