Cientista De Oxford Usa Ia Para Apontar Alucinações De Ias

Cientista de Oxford usa IA para apontar alucinações de IAs – 21/06/2024 – Tec

Tecnologia

Grandes modelos de perceptibilidade sintético tendem a relatar mentiras, e fazer isso de forma convicta, quando não tiveram contato com informação suficiente sobre um objecto.

O comportamento, chamado de alucinação, é a principal barreira para emprego da tecnologia em tarefas delicadas, por exemplo, nos consultórios médicos e nos tribunais, segundo cláusula publicado na revista Nature.

Esse mesmo cláusula propõe uma solução que provou ser mais eficiente do que a checagem humana: usar outros dois modelos de IA para identificar o risco de a primeira plataforma gerar várias respostas com significados diferentes para a mesma pergunta.

É o caso, por exemplo, da pergunta “onde está a torre Eiffel?” As IAs testadas responderam coisas uma vez que “é Paris”, “a capital da França “, “Roma” e “Berlim”. Nessas quatro respostas, há três significados diferentes, o que aponta a confusão do padrão de perceptibilidade sintético.

O responsável do estudo, o pesquisador da Universidade de Oxford Sebastian Farquhar, definiu essa situação uma vez que “estado de subida entropia semiologia”, ao emprestar da física o noção de “nível de entropia” —uma medida do quanto um sistema está caótico.

Essa medida acabou mostrando subida relação com a verosimilhança da perceptibilidade sintético exaltar —ou confabular, uma vez que diz o estudo.

“O grande repto foi honrar inconsistência de significado de inconsistência na escolha de palavras”, escreveu Farquhar na rede social X. A solução foi agrupar as respostas que tinham o mesmo significado, mesmo que tivessem diferenças lexicais e sintáticas.

No caso das respostas sobre a torre Eiffel, “Paris” e “capital da França” ficam agrupadas uma vez que as respostas de maior verosimilhança, “Roma” fica em um grupo e “Berlim” em outro. O padrão logo calcula a desorganização dos resultados com um estimador estatístico e recomenda que a pergunta seja reformulada se a entropia for considerada subida.

Os resultados apresentados por Farquhar e mais três pesquisadores mostraram que a técnica é 20% mais eficiente do que a supervisão humana. Nos casos testados, em que os mínimos detalhes importavam, a revisão de uma pessoa é principalmente lapso, afirma o cláusula.

O método também teve mais precisão do que outras abordagens já testadas, uma vez que a classificação prévia de perguntas que geram confabulações e a medida de entropia das palavras nas respostas.

Os pesquisadores por trás da técnica, que trabalham na Deepmind (o braço de desenvolvimento de IA do Google), sugeriram usar o detector de alucinações para criticar as perguntas problemáticas e, assim, gerar melhores resultados. Os resultados obtidos com essa abordagem também indicaram avanços.

COMO ISSO FOI FEITO

Farquhar e seu grupo testaram o método em questionários, testes matemáticos e perguntas sobre detalhes biográficos. “Nas biografias, escolhemos personagens famosos o suficiente para ter páginas no Wikipedia em vários idiomas, mas informação na internet insuficiente para gerar uma boa resposta no ChatGPT”, descreve o cláusula.

O principal exemplo foi a história do vencedor de motociclismo britânico Freddie Frith, que dominou a modalidade no pré e no pós-Segunda Guerra Mundial.

As IAs usadas na checagem identificaram que as informações sobre Frith ter sido presidente do sindicato de pilotos e sua data de promanação (1911) tinham subida entropia. Os dois trechos, de vestuário, estavam errados —Frith nascera em 1909 e nunca presidira a entidade.

Todos os dados biográficos foram checados com uma base de biografias disponível na internet, chamada FactualBio. Os testes envolveram 21 indivíduos e 150 fatos.

Para agrupar as respostas com o mesmo sentido e medir se a pergunta gerava um “comportamento caótico”, os autores do estudo usaram dois modelos de perceptibilidade sintético, o GPT-3.5 (o cérebro do ChatGPT) e o DeBERTa (um padrão da Microsoft usado em buscadores uma vez que o Bing e o Google).

“Basta repetir a pergunta de três a cinco vezes para gerar uma exemplar suficiente para o padrão funcionar”, escreveu Farquhar.

Ao ChatGPT, primeiro é questionado se a primeira resposta leva à mesma desfecho do que a segunda. O padrão precisa responder se há relação lógica, se não há ou se as respostas são contraditórias.

Depois, os pesquisadores usam o DeBERTa para prezar o quanto o sentido das respostas é similar. O padrão mais simples apresentou uma eficiência similar ao GPT, com menor dispêndio e mais desembaraço.

APLICAÇÃO

De negócio com Farquhar, a invenção vai permitir o uso de perceptibilidade sintético em áreas “especializadas e sensíveis”. Será, por exemplo, mais confiável usar uma perceptibilidade sintético uma vez que assistente em um diagnóstico.

Uma alucinação generalidade, segundo o estudo, é a confusão entre marcadores usados para diagnosticar cancro.

O processo de checagem aumenta o dispêndio com perceptibilidade sintético de cinco a dez vezes por pergunta, de negócio com o responsável do estudo. Há gasto suplementar com as perguntas às IAs auxiliares e com o ajuntamento das respostas.

“Em situações nas quais a confiabilidade do resultado importa, vale cada centavo”, diz Farquhar.

Ele previne, entretanto, que seu padrão de checagem não resolve problemas relacionados à inconsistência de dados sobre o objecto e treinamento ruim por secção do desenvolvedor da IA.

Em cláusula também publicado na Nature nesta quarta, a coordenadora do curso de ciência da computação do RMIT (Royal Melbourne Institute of Technology), Karin Verspoor chancelou os resultados de Farquhar, mas fez um alerta: “Estão combatendo lume com lume”.

A escolha pode se provar um problema quando há pressa do mercado para encontrar aplicações de IA em áreas diversas, uma vez que a invenção de medicamentos, o desenvolvimento de materiais e avanços matemáticos e computacionais, segundo estudo de Verspoor.

Folha

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *