Os perigos de deixar que a ia organize sua próxima

Os perigos de deixar que a IA organize sua próxima viagem – 05/10/2025 – Tec

Tecnologia

O fundador e diretor da empresa Evolution Treks Peru, Miguel Ángel Gongora Meza, se preparava para uma estirão através dos Andes em uma cidade no interno do Peru, quando ouviu uma conversa curiosa.

Dois turistas não acompanhados conversavam amigavelmente sobre seus planos de caminhar sozinhos nas montanhas, até o “Cânion Sagrado de Humantay”.

“Eles me mostraram a imitação de tela, redigida de forma persuasivo e repleta de adjetivos fulgurantes”, conta ele. “Mas não é verdade. O Cânion Sagrado de Humantay não existe!”

“O nome é uma combinação de dois lugares que não têm relação com a descrição. Os turistas pagaram tapume de US$ 160 [cerca de R$ 850] para chegar a uma estrada rústico nos periferia de Mollepata [no Departamento peruano de Cusco] sem um guia nem [destino].”

Mais do que isso, Gongora Meza afirma que esse erro aparentemente simples poderia ter custado a vida dos viajantes.

“Levante tipo de desinformação é perigoso no Peru”, explica ele.

“A altitude, as mudanças climáticas e a acessibilidade dos caminhos precisam ser planejadas. Quando você [usa] um programa [como o ChatGPT], que combina imagens e nomes para gerar uma fantasia, você pode finalizar em uma altitude de 4.000 metros, sem oxigênio e sem sinal [telefônico].”

Em poucos anos, ferramentas de perceptibilidade sintético (IA), porquê o ChatGPT, Microsoft Copilot e Google Gemini, deixaram de ser uma mera novidade para se tornar segmento integrante do planejamento de viagens de milhões de pessoas.

Uma pesquisa indica que 30% dos turistas internacionais passaram a usar ferramentas de IA generativa e sites especializados criados por IA, porquê Wonderplan e Layla, para ajudar a organizar suas viagens.

Estes programas podem oferecer dicas de viagem valiosas quando funcionam adequadamente. Mas também podem induzir as pessoas a situações frustrantes e até perigosas, quando suas informações estão erradas.

Alguns turistas estão aprendendo esta prelecção quando chegam ao seu direcção e descobrem que receberam informações incorretas ou foram direcionados para um lugar que só existe na imaginação cabeada de um robô.

Dana Yao e seu marido vivenciaram recentemente esta situação. Ela é criadora de teor e mantém um blog sobre viagens no Japão.

No início deste ano, o parelha usou o ChatGPT para planejar uma estirão romântica até o topo do monte Misen, na ilhota de Itsukushima.

Depois de visitar a cidade de Miyajima sem problemas, eles saíram às 15h para subir até o pico da serra a tempo para o pôr do sol, exatamente porquê instruiu o ChatGPT.

“Foi aí que surgiram os problemas”, conta Yao, “quando estávamos prontos para descer [a montanha] de teleférico.”

“O ChatGPT disse que o último teleférico descia às 17h30, mas, na verdade, ele já estava fechado. Por isso, ficamos presos no topo da serra.”

Em 2024, uma reportagem da BBC contou que o site Layla informou usuários que havia uma Torre Eiffel em Pequim, na China. E também sugeriu a um visitante britânico uma rota de maratona pelo setentrião da Itália que era totalmente inviável.

“Os itinerários não tinham muita lógica”, disse o viajante. “Passamos mais tempo no transporte do que em outro lugar.”

Segundo uma pesquisa realizada em 2024, 37% das pessoas entrevistadas que usaram IA para ajudar a planejar suas viagens relataram que ela não conseguia fornecer informações suficientes, enquanto tapume de 33% afirmaram que as recomendações geradas por IA incluíram informações falsas.

Estas questões decorrem da forma de geração das respostas pela IA.

O professor de aprendizagem de máquina Rayid Ghani, da Universidade Carnegie Melon, nos Estados Unidos, explica que programas porquê o ChatGPT talvez pareçam oferecer conselhos úteis e racionais, mas a forma porquê ele obtém as informações faz com que você nunca tenha totalidade certeza se ele está ou não contando a verdade.

“Ele não sabe a diferença entre conselhos de viagem, orientações ou receitas”, segundo Ghani. “Ele só conhece palavras.”

“Por isso, ele fica emitindo palavras que fazem com que qualquer coisa que ele diga pareça realista e é daí que surgem muitas das questões subjacentes.”

Os grandes modelos de linguagem, porquê o ChatGPT, trabalham analisando imensas coleções de textos e reunindo palavras e frases que, estatisticamente, parecem respostas apropriadas.

Às vezes, leste processo gera informações perfeitas e precisas. Mas, em outras ocasiões, você recebe o que os especialistas em IA chamam de “alucinação”: as ferramentas simplesmente inventam coisas.

Mas, porquê os programas de IA apresentam alucinações e respostas factuais da mesma forma, muitas vezes é difícil para os usuários diferenciar o que é real e o que não é.

No caso do “Sagrado Cânion de Humantay”, Ghani acredita que o programa de IA provavelmente tenha reunido palavras que pareciam apropriadas para a região.

Da mesma forma, investigar todos aqueles dados não oferece necessariamente a uma instrumento porquê o ChatGPT uma compreensão útil do mundo físico.

Ele pode facilmente confundir uma estirão de lazer de 4 km atravessando uma cidade com uma escalada de 4 km na encosta de uma serra. Isso, sem falar nos casos de desinformação pura e simples.

Uma reportagem recente da revista Fast Company contou sobre um incidente ocorrido com um parelha, que viajou até o lugar de um teleférico panorâmico na Malásia que eles haviam visto no TikTok. Só quando chegaram é que eles descobriram que a estrutura simplesmente não existia.

Eles assistiram a um vídeo totalmente gerado por IA, seja para despertar engajamento ou por qualquer outro propósito ignoto.

Incidentes porquê leste fazem segmento de uma tendência maior de criações feitas por IA que podem modificar sutilmente (ou não tão sutilmente assim) os nossos sentidos em relação ao mundo.

Um exemplo recente ocorreu em agosto, quando criadores de teor perceberam que o YouTube vinha usando IA para modificar seus vídeos sem permissão, “editando” sutilmente imagens de roupas, cabelos e rostos de pessoas reais.

A Netflix também ficou em maus lençóis ao empregar IA no início de 2025. Suas tentativas de “remasterizar” antigas séries de comédias criaram distorções surreais nos rostos de astros consagrados da televisão dos anos 1980 e 1990.

Com o uso cada vez maior de IA para fazer estas pequenas alterações sem o nosso conhecimento, a fronteira entre a verdade e um novo mundo de sonhos, refinado pela IA, pode estar começando a vanescer também da visão dos turistas.

O psicoterapeuta galeno Javier Labourt estuda porquê viajar pode ajudar a melhorar nossa saúde mental e nosso sentido de conexão em universal. Ele receia que a proliferação desses problemas possa anular os benefícios intrínsecos oferecidos pelo turismo.

Labourt acredita que viajar oferece uma oportunidade única. Podemos interagir com pessoas que, de outra forma, nunca conheceríamos e ainda aprender pessoalmente sobre diferentes culturas. Tudo isso pode gerar maior empatia e compreensão.

Mas, quando as alucinações da IA oferecem desinformação aos usuários, elas trazem uma narrativa falsa sobre um oferecido lugar, antes mesmo que os turistas saiam de moradia.

Vigilância e regulamentação

Existem atualmente tentativas de regulamentar porquê a IA apresenta suas informações aos usuários.

Diversas propostas, da União Europeia e dos Estados Unidos, pretendem estabelecer a inclusão de marcas d’chuva ou outros sinais indicadores, que permitam aos observadores saber quando alguma coisa foi desfigurado ou gerado por IA.

Mas Rayid Ghani acredita que esta seja uma guerra difícil.

“Existe muito trabalho por aí em relação à desinformação. Porquê detectá-la? Porquê ajudar as pessoas [a identificá-la]? Hoje em dia, a mitigação é uma solução mais confiável do que a prevenção.”

Se estas regulamentações forem aprovadas, os viajantes poderão identificar vídeos ou imagens geradas por IA com mais facilidade. Mas as novas regras provavelmente não irão ajudar quando um chatbot de IA inventar alguma coisa no meio da conversa.

Os especialistas —incluindo o CEO do Google, Sundar Pichai— alertam que as alucinações podem ser uma “particularidade inerente” dos grandes modelos de linguagem, porquê o ChatGPT ou o Gemini da Google.

Por isso, se você for usar IA, a única forma de se proteger é permanecer vigilante.

Uma sugestão de Ghani é ser o mais específico provável nas suas consultas e verificar absolutamente tudo.

Ele reconhece que o turismo traz dificuldades específicas em relação a leste método, pois os viajantes, muitas vezes, fazem perguntas sobre destinos que eles não conhecem. Mas, se uma instrumento de IA oferecer uma sugestão de viagem que pareça perfeita demais, desconfie.

Ghani conclui destacando que o tempo gasto para verificar as informações geradas por IA, em alguns casos, pode tornar o processo tão trabalhoso quanto planejar a viagem pelos métodos antigos.

Para Javier Labourt, o sigilo para viajar muito, com ou sem IA, é manter a mente ensejo e se apropriar quando as coisas dão falso.

“Tente alongar a recusa por ter sido traído por alguém”, sugere ele. “Se você já estiver ali, porquê irá resolver? Você já está fazendo uma viagem incrível, sabe?”

Leia a versão original desta reportagem (em inglês) no site BBC Travel

Folha

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *