“É mais fácil ser perdoado do que obter permissão”, diz John, um engenheiro de software em uma empresa de tecnologia de serviços financeiros. “Simplesmente siga em frente. E se você tiver problemas depois, resolva.”
Ele é uma das muitas pessoas que estão usando suas próprias ferramentas de perceptibilidade sintético (IA) no trabalho, sem a permissão de sua subdivisão de Tecnologia da Informação (TI) (é por isso que não estamos usando o nome completo de John).
De contrato com uma pesquisa da Software AG, metade dos trabalhadores da superfície de conhecimentos usam ferramentas pessoais de IA.
A pesquisa define trabalhadores do conhecimento uma vez que “aqueles que trabalham principalmente em uma mesa ou computador”.
Para alguns, é porque sua equipe de TI não oferece ferramentas de IA, enquanto outros disseram que queriam sua própria escolha de ferramentas.
A empresa de John fornece o GitHub Copilot para desenvolvimento de software com suporte de IA, mas ele prefere o Cursor.
“É, em grande secção, uma utensílio superestimada para autocompletar, mas é muito boa”, diz ele. “Ele completa 15 linhas por vez, e logo você olha e diz, ‘sim, é isso que eu teria digitado’. Isso te liberta. Você se sente mais fluente.”
Seu uso não autorizado não está violando uma política, é exclusivamente mais fácil do que aventurar um longo processo de aprovação, ele diz. “Sou preguiçoso e muito pago demais para deter as despesas”, ele acrescenta.
John recomenda que as empresas permaneçam flexíveis em suas escolhas de ferramentas de IA. “Tenho dito às pessoas no trabalho para não renovarem as licenças de equipe por um ano de cada vez porque em três meses todo o cenário muda”, ele diz. “Todo mundo vai querer fazer um tanto dissemelhante e se sentirá recluso pelo dispêndio irrecuperável.”
O lançamento recente do DeepSeek, um padrão de IA disponível gratuitamente na China, provavelmente só expandirá as opções de IA.
Peter (que também teve a identidade trocada) é gerente de resultado em uma empresa de armazenamento de dados, que oferece aos seus colaboradores o chatbot Google Gemini AI. Ferramentas externas de IA são proibidas, mas Peter usa o ChatGPT através da utensílio de procura Kagi.
Ele acha que o maior favor da IA vem de desafiar seu pensamento quando pede para o chatbot responder aos seus planos sob diferentes perspectivas de clientes.
“A IA não está tanto te dando respostas, mas te oferecendo um parceiro para debater ideias”, ele diz. “Porquê gerente de resultado, você tem muita responsabilidade e não tem muitos bons canais para discutir a estratégia de forma oportunidade. Essas ferramentas permitem isso de uma forma sem restrições e ilimitada.”
A versão do ChatGPT que ele usa (4.0) pode estudar vídeos. “Você pode obter resumos dos vídeos dos concorrentes e ter uma conversa inteira [com a ferramenta de IA] sobre os pontos dos vídeos e uma vez que eles se sobrepõem aos seus próprios produtos.”
Em uma conversa de 10 minutos com o ChatGPT, ele consegue revisar material que levaria duas ou três horas assistindo aos vídeos.
Ele estima que sua produtividade aumentada seja equivalente à empresa ter um terço de uma pessoa suplementar trabalhando de perdão.
Ele não sabe por que a empresa proibiu o uso de IA externa. “Acho que é uma questão de controle”, ele diz. “As empresas querem ter uma termo sobre as ferramentas que seus funcionários usam. É uma novidade fronteira da TI e eles simplesmente querem ser conservadores.”
Versões personalizadas de IA
O uso de aplicativos de IA não autorizados é às vezes chamado de “shadow AI”. É uma versão mais específica do “shadow IT”, que ocorre quando alguém usa software ou serviços que o departamento de TI não aprovou.
A Harmonic Security ajuda a identificar o “shadow AI” e a evitar que dados corporativos sejam inseridos inadequadamente em ferramentas de IA.
Ela está monitorando mais de dez milénio aplicativos de IA e já viu mais de cinco milénio deles em uso.
Esses incluem versões personalizadas do ChatGPT e softwares de negócios que adicionaram funcionalidades de IA, uma vez que a utensílio de informação Slack.
Por mais popular que seja, o “shadow AI” traz riscos.
Ferramentas modernas de IA são construídas ao digerir grandes quantidades de informações, em um processo chamado de treinamento.
Muro de 30% dos aplicativos que a Harmonic Security viu em uso treinam utilizando informações inseridas pelo usuário.
Isso significa que as informações do usuário se tornam secção da utensílio de IA e podem ser reutilizadas em respostas a outros usuários no horizonte.
As empresas podem estar preocupadas com seus segredos comerciais sendo expostos pelas respostas da utensílio de IA, mas Alastair Paterson, CEO e cofundador da Harmonic Security, acha que isso é improvável. “É muito difícil pegar os dados diretamente dessas [ferramentas de IA]”, ele diz.
No entanto, as empresas estarão preocupadas com o armazenamento de seus dados em serviços de IA sobre os quais não têm controle, não têm conhecimento e que podem ser vulneráveis a vazamentos de dados.
Será difícil para as empresas combaterem o uso de ferramentas de IA, pois elas podem ser extremamente úteis, mormente para os trabalhadores mais jovens.
“[A IA] permite que você comprima cinco anos de experiência em 30 segundos de engenharia de prompts”, diz Simon Haighton-Williams, CEO do The Adaptavist Group, um grupo de serviços de software com sede no Reino Uno.
“Ela não substitui totalmente [a experiência], mas é um grande impulso, da mesma forma que ter uma boa enciclopédia ou uma calculadora permite que você faça coisas que não conseguiria sem essas ferramentas.”
O que ele diria para as empresas que descobrem que há uso de shadow AI?
“Muito-vindos ao clube. Acho que provavelmente todo mundo faz isso. Sejam pacientes, entendam o que as pessoas estão usando e por quê, e descubram uma vez que vocês podem abraçar e gerenciar isso, ao invés de exigir que seja desligado. Você não quer ser deixado para trás uma vez que a organização que não [adotou a IA].”
A Trimble fornece software e hardware para gerenciar dados sobre o envolvente construído. Para ajudar seus funcionários a usarem a IA de forma segura, a empresa criou o Trimble Assistant. É uma utensílio interna de IA baseada nos mesmos modelos de IA usados no ChatGPT.
Os funcionários podem consultar o Trimble Assistant para uma ampla gama de aplicações, incluindo desenvolvimento de produtos, suporte ao cliente e pesquisa de mercado. Para desenvolvedores de software, a empresa oferece o GitHub Copilot.
Karoliina Torttila é diretora de IA na Trimble. “Eu incentivo todos a explorarem todos os tipos de ferramentas em sua vida pessoal, mas reconheçam que a vida profissional é um espaço dissemelhante e existem algumas salvaguardas e considerações a serem feitas lá”, ela diz.
A empresa incentiva os funcionários a explorarem novos modelos e aplicações de IA online.
“Isso nos leva a uma habilidade que todos somos forçados a desenvolver: temos que conseguir entender o que é oferecido sensível”, ela afirma.
“Há lugares onde você não colocaria suas informações médicas, e você tem que ser capaz de fazer esse tipo de julgamento [também para os dados de trabalho].”
A experiência dos funcionários usando IA em vivenda e para projetos pessoais pode moldar a política da empresa conforme as ferramentas de IA evoluem, ela acredita.
É necessário ter um “diálogo metódico sobre quais ferramentas nos servem melhor”, ela diz.
Levante texto foi publicado originalmente cá.