Cristiano Amon assumiu uma vez que CEO da Qualcomm, a maior operário de chips móveis do mundo, em 2021, justamente quando a indústria de semicondutores estava enfrentando dificuldades para mourejar com a escassez de suprimentos causada pela pandemia.
Três anos depois, o ciclo dos semicondutores mudou e o mercado de chips está exclusivamente começando a se restabelecer de um excesso de oferta. Os gastos dos consumidores com smartphones —mercado principal da Qualcomm— e outros eletrônicos de consumo diminuíram em um momento de subida inflação e tecnologia de dispositivos móveis em desenvolvimento.
Amon, um engenheiro brasiliano que ingressou na Qualcomm em 1995, tentou variar a empresa sediada em San Diego (EUA) em novas áreas, incluindo PCs e carros.
Mas, embora o preço de suas ações tenha subido muro de um terço em 2023, seus vínculos com o mercado lento de telefonia traste impediram que suas ações acompanhassem o boom impulsionado pela lucidez sintético desfrutado por empresas uma vez que Nvidia, AMD e Intel.
Essas fabricantes de chips se beneficiaram com a renovação dos provedores de computação em nuvem de seus data centers para ferramentas de “IA generativa”, uma vez que o ChatGPT da OpenAI.
Porquê ele explica nesta entrevista, Amon vê isso mudando oriente ano, à medida que a IA chega aos dispositivos móveis de forma significativa —e, segundo ele, traz mudanças profundas no estabilidade de poder em uma indústria que há muito tempo é dominada pela Apple e pelo Google.
Parece que, nos últimos anos, toda a conversa sobre IA generativa e chips tem sido sobre o que está acontecendo na nuvem. Você acha que isso está prestes a mudar em 2024?
Ah, vai mudar. Na verdade, já está mudando. E por várias razões. Isso não se trata de [tudo o que acontece na] nuvem se movendo para o dispositivo —acredito que a nuvem continuará sendo muito relevante, continuará evoluindo, será indispensável. Mas o dispositivo tem um papel dissemelhante a desempenhar. E agora vemos a IA generativa evoluindo muito, muito rapidamente para o dispositivo. Acredito que essa tem sido a história da computação: você começa com coisas na nuvem, ou no mainframe no pretérito, e depois, à medida que a capacidade de computação distribuída existe, você começa a ver o mesmo tipo de computação se movendo para [dispositivos menores] uma vez que o PC e os telefones móveis. Estamos prestes a iniciar essa transição de forma significativa [na IA].
E essa mudança em relação à nuvem é possibilitada por mudanças que você e outros fabricantes de chips estão fazendo para colocar esses enormes modelos de IA em dispositivos menores? Ou os próprios modelos estão mudando para que possam ser executados em diferentes tipos de computadores?
É tudo isso. Agora temos a capacidade de gerar um processador de IA de sobranceiro desempenho que pode estar em um dispositivo nutrido por bateria. Eles podem funcionar o tempo todo, podem funcionar de forma abrangente. Esse é o primeiro elemento: ter o mecanismo de computação que torna isso uma veras. Mas logo a segunda coisa que está acontecendo é que os modelos, à medida que são [melhor] treinados, estão se tornando menores e mais eficientes —principalmente se o protótipo for para um caso de uso específico. E isso está chegando aos dispositivos [portáteis]. O terceiro ponto é que os aplicativos estão sendo desenvolvidos para aproveitar essa capacidade. Portanto, você junta tudo e vê que isso acontecerá em telefones, PCs, carros e até mesmo [outros dispositivos como] seu ponto de chegada wi-fi, por exemplo.
Porquê você acha que isso se mostrará para os consumidores? O que as pessoas perceberão uma vez que a maior diferença em um telefone habilitado para IA em confrontação com o uso atual?
Quando você pensa em IA generativa sendo executada em dispositivos, isso acontecerá de pelo menos duas maneiras. Uma delas é que você terá uma IA que está sendo executada de forma abrangente, e o trabalho da IA é prever todos os seus movimentos, prever você. Isso é muito, muito dissemelhante da nuvem, onde você precisa fazer uma consulta [fazer uma pergunta para obter uma resposta]. A outra maneira é fazer a mesma coisa que acontece na nuvem, em conjunto com o dispositivo. Chamamos isso de IA híbrida. Assim, você pode tornar a realização da IA mais alcançável [para o desenvolvedor], pois está usando o poder de computação [no dispositivo em vez de ter que chamar a nuvem]. E você pode tornar a IA mais precisa, porque o dispositivo tem contexto real sobre o que você está fazendo, onde está, etc. Portanto, essas são duas maneiras.
Você pode me dar mais exemplos do primeiro, sobre uma vez que a IA vai mudar a experiência do usuário do dispositivo?
Vamos exclusivamente pensar em alguma coisa que você provavelmente faz várias vezes ao dia: enviar mensagens de texto. Quando você escreve uma mensagem de texto, você a vê uma vez que uma mensagem que está enviando para outra pessoa. Mas para a IA, isso pode ser uma consulta. Enquanto você digita essa mensagem de texto, a IA está em realização e pensando: “Há alguma coisa para eu fazer cá?”.
Você acabou de expor que quer vincular para a Clare na próxima semana e sugeriu terça-feira, logo a IA vai penetrar o aplicativo de calendário e expor: “Tim, você tem esses horários disponíveis. Quer que eu envie um invitação de calendário para a Clare?” O outro tipo de coisa que vai suceder é: você me diz que teve umas férias maravilhosas com a família, e enquanto você menciona isso, a IA vai expor: “Essas são as fotos que você tirou, você quer compartilhar isso com o Cristiano?”.
As pessoas já tentaram isso no pretérito e muitas vezes era exclusivamente irritante. Estou pensando no Clippy, o assistente virtual que aparecia nos aplicativos do Microsoft Office há 20 anos, dizendo coisas uma vez que: “Parece que você está escrevendo uma epístola, você gostaria de ajuda?” Por que você acha que vai funcionar melhor desta vez?
Porque vai ser mais preciso e vai aprender seu comportamento, sobre o que você quer e o que não quer. Lembre-se, não era provável fazer isso no pretérito porque havia dificuldade em interpretar sua linguagem. Era difícil obter contexto e você tinha que programar cada movimento. Agora você não precisa mais programar. É por isso que você tem esses grandes modelos de linguagem [os sistemas que alimentam os assistentes de IA hoje]. A outra razão é que agora você tem a capacidade de executar a IA de forma abrangente, em tudo o que você faz na tela, uma vez que exemplo.
Quanto mais rápido vai parecer para o usuário quando você está executando a IA no próprio dispositivo, em confrontação com a espera que os dados sejam enviados para a nuvem ao usar um aplicativo uma vez que o ChatGPT hoje?
Tem que suceder em segundos. Vamos mudar dos grandes modelos de linguagem para os grandes modelos de visualização. Você está familiarizado com o Stable Diffusion? Você digita uma consulta de texto e ele cria uma foto… Demonstramos o Stable Diffusion sendo executado em 0,6 segundos no dispositivo. Portanto isso está [mudando] sua experiência de usuário diária: uma vez que você pensa em tirar fotos, uma vez que você pensa em editar fotos.
O que exatamente isso significa em termos de teor de silício dentro de cada telefone?
Estamos desenvolvendo processadores de computação separados para IA. Porque você pode executar coisas em uma CPU [unidade de processamento central], você pode executar coisas em uma GPU [unidade de processamento gráfico], mas a GPU e a CPU do seu telefone estão ocupadas fazendo outras coisas. Portanto, se você vai executar a IA de forma abrangente, você quer ter computação acelerada dedicada —é por isso que também temos a NPU [unidade de processamento neural]. A IA generativa tem o potencial de gerar um novo ciclo de atualização em smartphones.
Além dos smartphones, onde mais veremos a IA mudando a forma uma vez que interagimos com nossos dispositivos pessoais?
O carruagem é ainda mais fácil de entender porque, quando você está detrás do volante, a linguagem oriundo não é exclusivamente uma maneira segura, mas também boa, de interagir com seu carruagem. O carruagem vai olhar para o seu calendário e expor: “Cá é o sítio para onde você precisa ir, eu já programei a navegação para você”. Ou pode expor: “Notei que você sempre liga para alguém, liga para sua esposa ou seu camarada. Você quer que eu ligue para eles para você? Eu sei que você precisa comprar comida, você quer fazer uma paragem no supermercado?” Grandes modelos de linguagem serão perfeitos para a experiência do usuário em um carruagem.
Para seus clientes, os fabricantes de dispositivos e fabricantes de eletrônicos, quanto você acha que a IA tem o potencial de mudar o cenário competitivo?
Estamos exclusivamente no prelúdios disso, onde você está começando a ver os OEMs [fabricantes de equipamentos originais] falando sobre diferentes experiências do usuário em seus dispositivos. Alguns estão se voltando para a retrato, outros estão se voltando para a informação e tradução. Alguns estão se voltando para a produtividade.
Até que ponto você acha que todas as coisas que você falou vão reavivar o desenvolvimento no mercado de smartphones? Os consumidores pagarão mais por recursos de IA, ou isso será exclusivamente alguma coisa que eles esperam uma vez que sendo um padrão do aparelho?
Essa é uma pergunta de bilhões de dólares. Você verá dispositivos sendo lançados no início de 2024 com vários casos de uso de IA de última geração. Isso tem o potencial de gerar um novo ciclo de atualização em smartphones. E o que queremos é que eventualmente você diga, sabe, “Eu tenho mantido meu telefone nos últimos quatro anos… Agora preciso comprar um novo telefone porque realmente quero esse recurso de IA de última geração.” E você terá que comprar um novo telefone porque se trata da novidade que está chegando nessas novas plataformas.
A indústria precisa de alguma coisa para impulsionar as vendas porque agora é um mercado maduro. Foram anos difíceis para os fabricantes de smartphones.
Ficamos muito satisfeitos com os últimos resultados, pois a dinâmica do mercado e a correção do mercado de telefones que vimos em 2023 no Android já ficaram para trás. Acredito que o mercado encontrou seu ponto de segurança. Estamos sendo cautelosamente otimistas. Estamos prevendo desenvolvimento [em 2024]… Mas é um mercado maduro em muitos aspectos, logo quando cresce, cresce em um dígito.
No entanto, há coisas diferentes acontecendo no mercado que são importantes para realçar. Quando você compra um novo telefone, procura comprar um aparelho melhor do que tinha antes. Portanto, temos visto que os segmentos premium e de sobranceiro nível têm uma taxa de desenvolvimento maior à medida que o mercado entra em um ciclo de substituição do que os segmentos mais baixos. Isso é uma métrica saudável. Com o tempo, se criarmos um ciclo de substituição impulsionado pela IA de última geração, isso mudará significativamente o tamanho do mercado —principalmente porque as taxas de atualização vão açodar e veremos um grande potencial de desenvolvimento. No momento, estamos exclusivamente felizes por estarmos nos estabilizando.
Quando falamos sobre esses grandes modelos de IA, existem realmente dois papéis para os fabricantes de chips: processar todos os dados antemão para gerar os modelos, o que é sabido uma vez que “treinamento”, e depois uma vez que os modelos são utilizados em aplicativos, o que é chamado de “inferência”. Até agora, na IA, o mercado realmente tem se concentrado no treinamento e a Nvidia tem sido de longe a maior beneficiária disso. Qual é a oportunidade relativa para os fabricantes de chips na inferência versus treinamento no horizonte? Qual será o mercado maior a longo prazo para as empresas de semicondutores?
É bastante lógico, eu acho. Grande segmento da infraestrutura em IA, principalmente para IA de última geração, começou na nuvem, com uma arquitetura específica que você precisava para fazer o treinamento. Mas quando os modelos se tornam menores, eles são executados em um dispositivo, eles se especializam em uma determinada tarefa. Portanto, o que vai lucrar graduação, na IA de última geração e na IA em universal, é a inferência. Porque é isso que você faz: você treina para poder fazer a inferência. Portanto, mesmo no data center, começamos a ver muito interesse em processadores de inferência dedicados para modelos que já estão treinados e que você deseja executar em graduação. Portanto, é inevitável que a inferência supere o treinamento. Quando falamos sobre dispositivos, tudo se resume à inferência.
Executar aplicativos de IA uma vez que o ChatGPT agora é bastante custoso para empresas uma vez que a Microsoft ou a OpenAI, porque cada vez que um cliente usa o aplicativo, incorre em custos de computação. Porquê fazer IA no dispositivo muda a economia disso?
Quando pensamos em modelos de IA, eles estão chegando aos dispositivos. Vários modelos diferentes estão sendo adaptados para o Snapdragon [plataforma de chips móveis da Qualcomm]. Acredito que as plataformas [móveis] estão se tornando mais abertas, com mais potencial para inovação.
Achamos que um protótipo híbrido será importante, principalmente se considerarmos o sobranceiro dispêndio e sobranceiro consumo de vigor dos data centers com IA de última geração. Você deseja que seja provável aproveitar a computação distribuída. Muitos dos modelos que vemos hoje estão sendo executados na nuvem. Mas se houver uma versão de inferência desse protótipo instalada no dispositivo, o dispositivo dará ao protótipo na nuvem uma vantagem inicial. Quando você faz uma consulta em um dispositivo, ela é muito mais precisa, porque o dispositivo tem contexto real: onde está Tim? O que Tim estava fazendo antes?
Portanto, o resultado é que esse protótipo híbrido é mais barato. Porque quando você aproveita a computação no dispositivo, a consulta é mais precisa e é realmente uma forma mais eficiente de fazer computação [do que executar aplicativos de IA na nuvem]
Você pode me dar um exemplo de uma vez que isso poderia funcionar?
Vamos supor que você esteja usando o Bing Chat [assistente de IA da Microsoft, alimentado pelo modelo ChatGPT, da OpenAI]. Vamos supor que você tenha um telefone Android e o navegador Edge, e você vá para o Bing e comece um chat. Hoje, você digita na caixa de chat e essa consulta vai 100% para a nuvem, e a nuvem vai executar o ChatGPT e você começa a ver sua resposta sendo exibida. A Microsoft está pagando o dispêndio totalidade dessa computação na nuvem, não é barato e consome muita vigor.
Avance rápido [para o novo tipo de dispositivos de IA] e você agora tem uma instância do ChatGPT ou qualquer outro protótipo da Microsoft que está sendo executado em seu dispositivo. Ele está instalado no NPU do seu dispositivo. Em seguida, você abre o mesmo navegador Edge e faz a mesma consulta [para o Bing]. O primeiro protótipo que é executado é o protótipo em seu dispositivo. E ele começa a fazer alguns cálculos, gera alguns tokens e os envia para a nuvem. A nuvem agora tem menos cálculos a fazer para lhe dar a resposta. Ou o protótipo pode expor que se sente confortável o suficiente e treinado para responder por si só —logo a nuvem não precisa fazer nenhum operação. Ainda é um serviço da Microsoft, mas eles estão agora aproveitando o poder de computação disponível em seu telefone.
OK, consigo ver uma vez que isso será mais barato para a empresa de IA ou provedor de nuvem. Mas hoje, as empresas que constroem e executam os maiores modelos de IA —uma vez que OpenAI e Anthropic, e até mesmo Microsoft, Amazon e Meta— não são necessariamente as mesmas empresas que fabricam smartphones e seus sistemas operacionais, onde empresas uma vez que Apple, Google e Samsung têm mais controle. Porquê você faz tudo isso se alinhar para que os modelos certos estejam nos lugares certos?
Bingo. Acho que essa é uma ótima pergunta. E é por isso que eu disse que as plataformas estão mudando. Se você pensar nas plataformas [móveis] hoje, você tem uma plataforma e um sistema operacional, e a única coisa que é executada é o que está no meu sistema operacional. Mas isso vai ser dissemelhante. Portanto vamos usar um exemplo. Vamos expor que você tenha o Microsoft Copilot [o assistente de chatbot de IA da empresa] que está sendo executado no Outlook, ou Word, ou qualquer outro aplicativo na nuvem. Mas você também tem esse aplicativo da Microsoft em seu dispositivo. Seu dispositivo poderia ter chegada a um protótipo de IA de terceiros da Microsoft que está sendo executado na computação acelerada [chip] no dispositivo. Nesse caso, o provedor desse serviço para você, o Copilot, tem uma instância na nuvem e tem uma instância no dispositivo.
Agora vamos mudar [o exemplo] para o Meta. Você tem um protótipo Llama 2 [uma IA desenvolvida pela Meta] em seu dispositivo. Você tem um aplicativo para o Meta, digamos o Instagram, você tem isso na nuvem e no dispositivo. Portanto essa é uma grande mudança, principalmente quando você pensa no mecanismo de computação e no chegada desses modelos pelos aplicativos. Isso está mudando fundamentalmente, eu acho, uma vez que a indústria funciona.
Portanto você está dizendo que, ao levar seus modelos de IA para mais telefones, empresas uma vez que Microsoft e Meta podem ter a chance de restabelecer segmento da influência na indústria traste que perderam quando Apple e Google venceram as guerras dos sistemas operacionais de smartphones? Mas para que isso aconteça, não é necessário ter alianças entre fabricantes de aparelhos, fabricantes de sistemas operacionais e desenvolvedores de aplicativos que nem sempre são tão amigáveis atualmente?
É por isso que acho que a indústria está mudando. Para um aplicativo, você tem uma App Store. Mas quando você executa um protótipo de IA no dispositivo, ele será pré-instalado no mecanismo do dispositivo, não é alguma coisa que você vai encolher da App Store. Você verá a capacidade das plataformas [móveis] de suportar modelos de primeira e terceira partes, assim uma vez que os OEMs. A maneira de pensar sobre isso é o aplicativo de câmera. O OEM constrói essa capacidade de câmera no dispositivo, e você também terá vários motores diferentes que são incorporados ao dispositivo.
Acho que essa segmento da indústria está evoluindo. Entendo a pergunta, mas você também precisa pensar no que os usuários querem. É por isso que você verá que terá tantos aplicativos diferentes, até mesmo aplicativos de concorrentes da plataforma [móvel], e acho que estamos exclusivamente no prelúdios dessa transição.
Porquê a Qualcomm pode se beneficiar de tudo isso?
A primeira coisa é que você vai expandir o mercado de telefones. Isso traz benefícios para o nosso negócio de chips e para o nosso negócio de licenciamento. Um dispositivo com IA requer mais poder de processamento. Isso tem dois aspectos. Impulsiona uma melhoria, levando você a comprar um dispositivo premium mais custoso. Também tem mais teor de silício, o que também contribui para uma margem maior para o negócio.
Isso é o que acontece nos telefones. No PC é completamente dissemelhante e é uma oportunidade incrível. Estamos entrando no espaço dos PCs. Somos a empresa que a Microsoft selecionou para competir com a Apple. [Qualcomm e Microsoft estão trabalhando juntas para produzir PCs que esperam superar os computadores Mac da Apple.] Quando você pensa na transição do Windows para a IA, isso é um fator favorável incrível para a nossa ingresso no PC, porque estamos chegando com a principal capacidade de processamento de IA de longe. Temos a peça com melhor desempenho e menor consumo de vigor.
A outra [oportunidade] é a automotiva. Construímos uma posição muito possante na indústria automotiva com nosso chassi Snapdragon e a cabine do dedo imersiva. A Qualcomm se tornou a plataforma de escolha para todas essas novas experiências imersivas de cabine do dedo que você vê em mais de 30 marcas. As capacidades de IA [prometem permitir que] atualizemos o sistema com mais valor para nossos clientes e consolidemos a posição da Qualcomm na indústria automotiva.
Toda a empolgação no Vale do Silício agora é sobre IA. Não faz muito tempo que era sobre o metaverso e a veras virtual, que não se mostraram tão grandes quanto as pessoas esperavam. Porquê você vê o potencial de unir essas duas tendências?
Estamos vendo a IA entrando na veras virtual. Vemos um potencial incrível [para óculos de realidade aumentada e realidade mista], principalmente quando você usa modelos de áudio e linguagem grandes uma vez que interface. Estamos muito otimistas em relação à computação espacial uma vez que a novidade plataforma de computação, e vemos muitos desenvolvimentos promissores acontecendo: vemos o que o Meta está fazendo, vemos o que está acontecendo no ecossistema Android com o Google e a Samsung. Estamos exclusivamente no prelúdios.
Vocês forneceram os chips para novos tipos de dispositivos vestíveis leves, uma vez que os óculos Ray-Ban da Meta, que dependem menos de visuais imersivos e mais de assistentes de IA de áudio. Isso pode ser um sinistro uma vez que o Google Glass novamente, ou eles podem ser mais populares do que a experiência completa de veras virtual a limitado prazo?
Eu apostaria nos dispositivos vestíveis leves todas as vezes. Foi só com o smartphone que você começou a carregar um computador com você o tempo todo. Existem duas coisas que vão impulsionar o uso e o volume. Uma é que [os produtos] ficam mais leves e mais fáceis de usar, logo você os usa por mais tempo. A segunda é o teor. À medida que você traz mais capacidades para esses dispositivos, você tem um melhor teor. Acredito que estamos nessa trajetória. Mais graduação traz um teor ainda melhor, porque os desenvolvedores estão dispostos a investir numerário.
Os óculos que acabamos de lançar com a Meta, os óculos Ray-Ban, são muito úteis para várias aplicações, principalmente quando você pensa em mídias sociais e uma vez que gerar teor. Eles vão melhorar.
Minha última pergunta é sobre os telefones dobráveis, que têm sido um ponto positivo de desenvolvimento em um ano sombrio, mas ainda estão vendendo em números muito pequenos no universal. Os telefones dobráveis vão vingar?
Evidente que vão vingar. [Mostra seu telefone dobrável da Samsung.] Oriente é o meu quarto flip. Acho que não vou voltar para um não-dobrável. É incrivelmente útil.
E esse é realmente o seu telefone do dia a dia?
Com certeza! Oriente é um telefone sem compromissos. Tem todo o desempenho que você precisa. Encaixa melhor no seu bolso. E não há zero de inverídico em penetrar para atender uma relação e flectir para fechar a relação, principalmente para alguém uma vez que eu que começou a usar telefones nos anos 90.