A rivalidade entre Nvidia e Google no mercado de chips para inteligência artificial (IA) intensifica-se com relatos de que a Meta considera adotar os Tensor Processing Units (TPUs) do Google em seus data centers a partir de 2027. Essa possível transição, que inclui aluguel de chips via Google Cloud já em 2026, representa um esforço da Meta para diversificar fornecedores e reduzir dependência da Nvidia, atual líder com mais de 90% do mercado de workloads de IA. A movimentação impulsiona debates sobre mudanças nas dinâmicas de hardware para IA, afetando ações e estratégias de grandes empresas de tecnologia.
Rivalidade entre Nvidia e Google em Chips de IA
A competição entre Nvidia e Google destaca diferenças arquiteturais: os GPUs da Nvidia oferecem versatilidade para uma ampla gama de modelos de IA, enquanto os TPUs do Google, como circuitos integrados específicos para aplicações (ASICs), otimizam tarefas de machine learning com eficiência energética superior em cargas específicas. Relatos indicam que a Nvidia se mantém uma geração à frente em compatibilidade universal, mas o Google avança com ofertas especializadas, como os TPUs v6e (Trilium) e v7p (Ironwood), projetados para treinamento de IA e com crescimento anual superior a 40% em envios a partir de 2026. Essa disputa altera o ecossistema de IA, com empresas explorando alternativas para inovar e reduzir custos em infraestrutura.
Na prática, o Google limita historicamente seus TPUs a aluguéis na própria nuvem, mas agora promove instalações diretas em data centers de clientes, ampliando o alcance além de provedores como Fluidstack. Segundo relato sobre rivalidade em chips de IA, essa estratégia visa capturar até 10% da receita anual da Nvidia, representando uma oportunidade de bilhões de dólares. A Nvidia responde enfatizando a superioridade de seus GPUs em flexibilidade e suporte a todos os frameworks de IA.
🚨 Vagas abertas para o nosso grupo de ofertas que vai te fazer economizar MUITO!
Interesse da Meta nos TPUs do Google
A Meta, grande cliente da Nvidia, negocia o uso de bilhões de dólares em TPUs do Google para diversificar sua infraestrutura de data centers, alinhando-se a uma tendência de mitigação de riscos com fornecedores únicos. Essa adoção potencial, a partir de 2027, foca em performance otimizada para operações de deep learning, contrastando com os GPUs versáteis da Nvidia. Além disso, a Meta planeja alugar TPUs via Google Cloud em 2026, priorizando segurança e conformidade para dados sensíveis, especialmente em aplicações como trading de alta frequência.
Além disso, o acordo pode beneficiar a cadeia de suprimentos taiwanesa, com parcerias do Google em design de ASICs via Global Unichip (afiliada à TSMC) para nós de processo N3 e N5, abrangendo TPUs e processadores como Axion. Conforme análise sobre queda das ações da Nvidia, essa movimentação da Meta sinaliza uma diversificação mais ampla no setor, impulsionando inovações e possivelmente reduzindo custos de IA para empresas globais.
Estratégia de Expansão do Google com TPUs
O Google desenvolve o programa “TPU@Premises” para permitir instalações de TPUs em data centers de clientes, apoiado por software como “TPU command center”, que facilita operações sem expertise profunda em linguagens como Jax, permitindo uso com PyTorch. Essa iniciativa, iniciada no verão passado, estende os TPUs além da nuvem própria, com acordos como o com Fluidstack para hospedagem em Nova York, incluindo suporte financeiro de até 3,2 bilhões de dólares em caso de inadimplência. O modelo Gemini 3, treinado principalmente em TPUs, demonstra velocidade e raciocínio avançados, comparáveis ou superiores a rivais como ChatGPT, impulsionando confiança no hardware do Google.
Em seguida, parcerias com Broadcom para plataformas como TPU v7p reforçam a produção, com envios iniciados no segundo trimestre e ramp-up no segundo semestre de 2026. De acordo com notícia sobre discussões da Meta com Google, executivos do Google Cloud veem na adoção ampla uma rota para bilhões em receita, enquanto relato sobre avanço do Google em chips de IA destaca o foco em treinamento de novos modelos de IA com clientes como a Meta.
Resposta da Nvidia à Concorrência
A Nvidia contra-ataca com investimentos bilionários em startups de IA, como Anthropic (após acordo com Google para até 1 milhão de TPUs) e OpenAI (até 10 bilhões de dólares para data centers e GPUs), garantindo compromissos de uso de seus chips sem obrigatoriedade de compra. O CEO Jensen Huang reconhece avanços do Google, mas afirma que os GPUs da Nvidia superam ASICs em performance, versatilidade e fungibilidade para todos os modelos de IA. Um porta-voz da Nvidia expressa contentamento com o sucesso do Google, mas enfatiza o suporte contínuo a ambos os tipos de chips na nuvem do Google.
Na prática, esses movimentos visam bloquear parcerias rivais, como uma possível com a Meta, um de seus maiores clientes. Conforme mensagem da Nvidia ao Google sobre rivalidade, a empresa posiciona seus GPUs como padrão de facto via software Cuda, contrastando com as limitações de flexibilidade dos TPUs.
Impactos no Mercado e Investimentos
As ações da Alphabet (dona do Google) subiram 6,3% em um dia para máxima histórica de 318,58 dólares, com ganho acumulado de 68% no ano, aproximando seu valor de mercado em 3,9 trilhões de dólares do da Nvidia (4,2 trilhões), reduzindo a diferença para 300 bilhões de dólares. Já as ações da Nvidia caíram quase 10% no mês, negociadas a 26 vezes o lucro forward, abaixo da média de 35 vezes na última década, refletindo preocupações com diversificação no mercado de IA. Analistas como Ben Reitzes, da Melius Research, notam que melhorias no Gemini 3 e vantagens dos TPUs podem redefinir o “guerra da IA”, enquanto reação das ações da Nvidia a chips do Google indica otimismo para a Alphabet.
Além disso, o rali da Alphabet eleva seu múltiplo para 27 vezes o lucro forward, acima da média de 20 vezes, com índice de força relativa de 14 dias em 75, sinalizando possível sobrecompra. Conforme ganhos da Alphabet com relatos de uso de chips pela Meta, a competição acelera inovações, mas levanta questões sobre sustentabilidade, com investidores reavaliando bolhas em IA e impactos em valuations de hyperscalers como Oracle.





































