A partir desta segunda (20), o Google responde com um resumo feito por IA às buscas dos usuários americanos. O recurso chama-se AI Overview, um tanto porquê apanhado de IA.
Esse texto gerado pela IA Gemini, o ChatGPT do Google, será o primeiro resultado e estará escoltado de dois ou três links de referência. O material de divulgação não explica qual será o critério para escolher os sites mais relevantes.
Pesquisadores ouvidos pela reportagem dizem que a mudança no buscador mais acessado da internet pode implicar um empobrecimento radical da heterogeneidade da rede.
O AI Overviews pode reduzir os cliques em outros links ou páginas de internet, uma vez que a utensílio tem o propósito de buscar os principais pontos dos artigos espalhados pela internet, de concórdia com o cientista-chefe do Instituto Tecnologia e Sociedade do Rio de Janeiro, Ronaldo Lemos.
Isso pode ter impacto em veículos jornalísticos, uma vez que, na lógica da publicidade do dedo, cliques geram segmento da receita que financia a produção de teor.
O professor de economia da Universidade de Houston, Haaris Mateem, que estuda o financiamento da mídia na internet, labareda a prática do Google de “pegar só o creme” (cream-skimming, em inglês) —trata-se de uma tática mercantil de restringir o aproximação a segmento mais lucrativa de um setor econômico.
“Isso reduz ainda mais as chances de um pai lucrar moeda com os artigos ou vídeos que produzir”, diz Mateem.
Caso a utensílio de IA tenha sucesso, ainda há a chance de o teor gerado pelo Google ser a principal manadeira de informação dos 4,3 bilhões de usuários espalhados pelo mundo do buscador —número da plataforma de mensuração de audiência na internet Semrush, que estima que o Google controle 92% do mercado de buscas.
O tráfico da internet, assim, pode rematar tomado em grande medida pelo próprio Google, de concórdia com Lemos. “Há uma preocupação de que isso crie uma espécie de monocultura na rede: a empresa não seria mais só um buscador, que envia tráfico e cliques para outros lugares, mas o orientação final e único de todas as buscas por informação, que passam a ser alimentadas pelo próprio site.”
“Essa é, talvez, a prenúncio mais séria à sustentabilidade do jornalismo”, diz o presidente da entidade patronal ANJ (Associação Vernáculo de Jornais), Marcelo Rech. Hoje, jornais, blogs e sites têm no Google uma das suas principais fontes de audiência, a partir do redirecionamento das buscas e adotam estratégias para surgir no topo da lista de links entregue pelo buscador.
Em teste feito pela Folha, a IA na procura do Google citou integralmente trechos de reportagens protegidas por paywall (barreira para proteger artigos pagos na internet). A empresa de tecnologia diz que inclui o endereço do responsável na web e respeita direitos autorais.
Segundo material de divulgação do Google, “os links incluídos nos resumos gerados com IA recebem mais cliques do que se a página fosse exibida porquê um resultado de procura tradicional para a mesma consulta”.
A empresa, mas, não divulgou os dados que embasam a informação nem estudo sobre os testes feitos com IA na procura, feitos entre outubro e maio.
Para a professora Anya Schiffrin, diretora de tecnologia, mídia e comunicações da Universidade Columbia em Novidade York, as gigantes da tecnologia, porquê o Google, se aproveitam do controle que detêm sobre os dados para obter vantagens no mercado e, por isso, não compartilham informação.
“Por isso, os criadores têm dificuldades de conseguir remuneração justa de empresas porquê Google e Meta [dona do Facebook e do Instagram].”
INTERNET DÁ SINAIS DE PIORA
A disputa por espaço na internet entre humanos e máquinas não é de hoje.
Em 2022, 47,4% de todo o tráfico na rede já era gerado por robôs que vagam pelas redes sociais com os mais diversos objetivos. Isso vale, por exemplo, para visualizações em posts nas redes sociais. O número representou uma subida de 5,1% em relação ao ano anterior, de concórdia com a empresa de cibersegurança Imperva, que monitora a presença de bots na internet.
Do totalidade do tráfico, 30,2% vêm de robôs maliciosos, dos quais objetivo é roubar dados, produzir spam (mensagens que tentam enganar o usuário), ou sobrecarregar servidores.
A presença de humanos na rede deve tombar ainda mais com a disputa por espaço com o teor gerado por perceptibilidade sintético. Estudo do Instituto de Estudos do Porvir de Copenhague, divulgado por Lemos, projeta que 99% do teor que será postado na internet em cinco anos será gerado por perceptibilidade sintético.
Secção dos textos, áudios e imagens gerados por perceptibilidade sintético é usada para espalhar desinformação, porquê no caso do esforço para influenciar as eleições na Eslováquia, ou de impulsionar práticas comerciais abusivas, porquê a inundação da Amazon com guias turísticos inúteis criados por IA.
É provável encontrar centenas de textos gerados por perceptibilidade sintético ao buscar no Google a sentença “porquê um padrão de IA, não”. Trata-se de um trecho da resposta padrão dada pelo ChatGPT quando é pedido para gerar texto sobre questões polêmicas ou que envolvem crimes. A frase sem sentido chega às publicações finais por falta de edição humana.
Aliás, mesmo as informações geradas por IA com boas intenções não são 100% confiáveis, porquê previnem avisos nas páginas de Google e OpenAI.
Durante o pregão do AI Overviews, o Gemini deu uma dica furada para o protagonista da propaganda que perguntou porquê consertar uma câmera analógica com a alavanca travada.
Uma das sugestões da plataforma foi “terebrar o divisão traseiro do aparelho e remover o filme gentilmente”, o que pode expor o filme à luz e danificar todos os registros, segundo o site especializado em tecnologia The Verge. A dica foi sublinhada pelo Google na apresentação.
O mesmo Google que quer colocar mais informação gerada por IA nas redes mencionou no mês pretérito que está tomando providências contra conteúdos que “parecem criados para [enganar] os mecanismos de buscas, em vez de para pessoas”. O objetivo disso é melhorar os resultados.