Profundidade da análise da grande estratégia da Microsoft em IA: não investir na competição de poder de computação, não apostar em LLM, quer ser o sistema operativo global para agentes de IA.
A Microsoft anunciou os resultados financeiros do Q3 de 2025, com receitas e lucros superando amplamente as expectativas do mercado. As receitas neste trimestre atingiram 77,67 bilhões de dólares, um aumento de 18% em relação ao ano anterior, e o lucro por ação foi de 3,72 dólares. O destaque ficou para o setor de nuvem, com a receita do Azure apresentando um crescimento anual de 40%. No entanto, para fortalecer suas capacidades em IA e nuvem, o CapEx disparou para 34,9 bilhões de dólares, um recorde histórico. Além disso, devido ao impacto dos investimentos da OpenAI, o resultado operacional diminuiu 3,7 bilhões de dólares. Apesar dos fundamentos serem fortes, o aumento acelerado dos gastos de capital continua a ser o principal risco de preocupação para os investidores.
(OpenAI completou a reestruturação de capital e fundou a PBC! Avaliação mais recente de 500 bilhões de dólares, a Microsoft possui 27% de participação)
Em 2025, enquanto toda a indústria de IA estava loucamente expandindo sua capacidade de computação, a Microsoft seguiu um caminho oposto. A empresa silenciosamente suspendeu a construção de alguns centros de dados, o que levou a questionamentos externos: será que a Microsoft está desacelerando na onda global de infraestrutura de IA? No entanto, o CEO da Microsoft, Satya Nadella, revelou em uma recente entrevista profunda e teleconferência um pensamento estratégico completamente diferente: a Microsoft não está lenta, mas sim mais consciente do que qualquer outra pessoa: a competição da próxima geração de IA não dependerá de um único modelo, nem de colocar todas as fichas em uma única geração de GPU.
A Microsoft não prendeu a OpenAI, mas sim desenvolve ecossistemas horizontais e verticais.
O público em geral acredita que: a Microsoft gastou bilhões de dólares investindo na OpenAI, e, portanto, naturalmente, a direção tecnológica estará profundamente ligada à série GPT. Mas a declaração de Nadella é bastante diferente. Ele afirmou francamente que as empresas de modelos de linguagem em grande escala na verdade enfrentam um risco estrutural:
“Se você é uma empresa de modelos, é muito provável que enfrente a 'maldição do vencedor': a inovação que você criou com tanto esforço, assim que for copiada uma vez, se tornará imediatamente uma mercadoria.” Ele estava muito claro: ninguém sabe qual estrutura de modelo irá vencer. Pior ainda: modelos de código aberto com ajuste fino empresarial podem alcançar modelos de ponta em um curto espaço de tempo. Em outras palavras, a capacidade do modelo que você investiu 50 bilhões de dólares para treinar pode ser igualada instantaneamente por algum modelo de código aberto ajustado com dados privados.
Camada de andaimes (scaffolding) é a verdadeira barreira de proteção da IA, infraestrutura integrada da Microsoft, modelos, agentes
Portanto, a Microsoft não vai amarrar o futuro apenas à GPT, mas usará simultaneamente os modelos de ponta da OpenAI, apoiando o código aberto e outros fornecedores como Meta, Anthropic. Nadella acredita que os modelos em si se tornarão gradualmente commodities. A verdadeira barreira de entrada não está nos modelos, mas na camada de suporte. Assim, enquanto desenvolve seu próprio modelo MAI, também possui produtos como Copilot e Azure, cultivando seu próprio ecossistema. Ter dados e engenharia de contexto é a verdadeira barreira de entrada da Microsoft.
A Microsoft não é incapaz de construir, mas não está disposta a construir um enorme centro de dados para uma geração de GPUs.
Em 2025, muitas empresas estavam loucas para construir centros de dados GB200. Mas a estratégia da Microsoft era completamente diferente: pararam a construção de alguns centros de dados e passaram a alugar poder de computação de neocloud externos e mineradoras. Quanto à razão por trás, Nadella disse: Eu não quero construir um centro de dados de gigawatts que só possa ser usado por uma geração específica de GPUs ou por uma arquitetura de modelo específica.
Ele explicou que o design e a demanda do GB200 são diferentes do GB300, e que com o Vera Rubin Ultra, o consumo de energia e as necessidades de resfriamento serão completamente diferentes. A estratégia da Microsoft é desenvolver infraestruturas que possam crescer com o tempo, em vez de deixar o capital preso em infraestruturas que parecem impressionantes à primeira vista, mas se tornam custos irrecuperáveis em poucos meses.
Mais da metade do custo de construção de centros de dados de IA é gasto na aquisição de GPU.
( Barclays rebaixou a classificação da Oracle ORCL, perto de lixo! O CapEx disparou e o fluxo de caixa pode ser interrompido no próximo ano )
Segundo relatos, o custo de construção de centros de dados de IA pode chegar a 50 a 60 bilhões de dólares por GW, o que é três vezes o custo de centros de dados tradicionais, com mais da metade do custo vindo da compra de hardware de computação GPU como os da NVIDIA. Desde o início de 2025, a previsão de CapEx das empresas de tecnologia em todo o mundo para os próximos anos quase dobrou. Dentre elas, a Oracle ( tem uma relação dívida/capital de 500%, e o Barclays estima que, com o CapEx estabilizado, a empresa queimará todo o seu caixa já em novembro do próximo ano. Em contraste, a relação dívida/capital da Microsoft é de apenas 30%, o que indica uma situação financeira relativamente saudável.
Profissionais da indústria revelam que a vida útil real das CPUs dos centros de dados de IA é de apenas 1 a 3 anos.
Profissionais da indústria com experiência no Google revelaram que as CPUs usadas em centros de dados de IA têm uma vida útil de apenas 1 a 3 anos.
O protagonista do grande short, Michael Burry, também afirmou que o prazo de uso da IA reivindicado por muitas empresas de IA não é, na verdade, tão longo. Eles dependem da extensão do prazo de uso para embelezar o valor de depreciação anual nos relatórios financeiros. Burry estima que, entre 2026 e 2028, o total de depreciação subestimada dos gigantes da nuvem pode chegar a 176 bilhões de dólares. Com base nisso, ele prevê: “Até 2028, o lucro da 甲骨文 )Oracle( será superestimado em 26,9%, enquanto a Meta será superestimada em 20,8%.”
) O protagonista da grande venda a descoberto, Michael Burry, critica novamente os gigantes da IA: subestimam a depreciação e exageram os lucros, o que é uma fraude moderna (
A Microsoft não está disposta a ser amarrada por despesas de capital e está a adquirir poder de mineração.
Nadella enfatizou a fungibilidade ) intercambiabilidade (, a condição para a Microsoft investir pesadamente é que deve ser capaz de se adaptar a vários modelos de linguagem de grande escala, completar treinamentos em várias etapas, geração de dados, raciocínio, e também suportar múltiplas gerações de GPU, isso é o que dá sentido ao investimento. É por isso que a Microsoft prefere alugar poder computacional externo, em vez de ser presa a uma única geração de chip. Isso também explica por que muitos provedores de computação em nuvem, como a IREN, se tornaram parceiros da Microsoft recentemente, em vez de concorrentes.
)IREN assinou um grande contrato de 97 bilhões de dólares com a Microsoft para AI em nuvem, e o preço das ações subiu mais de 7%(
O modelo de negócios da Microsoft mudou de to C para to Agent
No passado, o modelo de negócios da Microsoft era vender serviços de software aos consumidores; hoje, o seu objetivo é vender infraestrutura para agentes de IA )Business to Agent(. A Microsoft não busca vencer a guerra dos modelos, mas sim ser a Microsoft da era dos agentes de IA. Os modelos se tornarão mais numerosos, mais atualizados e mais poderosos. O hardware terá uma densidade cada vez maior e consumirá mais energia a cada geração. Os centros de dados serão constantemente redesignados devido à nova demanda de energia. Mas uma coisa não mudará: os agentes de IA precisam de uma infraestrutura de classe mundial, confiável, auditável e compatível entre gerações para funcionar.
O que a Microsoft precisa fazer é isso. Esta também é a verdadeira mensagem que Satya Nadella quis transmitir nesta entrevista: os modelos vão mudar, os chips vão mudar, mas o “ambiente operacional do agente de IA” é o campo de batalha que permanece constante.
Este artigo analisa profundamente a grande estratégia de IA da Microsoft: não investir em competições de poder computacional, não apostar em LLM, para se tornar o sistema operacional global que atua como agente de IA, apareceu pela primeira vez na ABMedia da Chain News.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Profundidade da análise da grande estratégia da Microsoft em IA: não investir na competição de poder de computação, não apostar em LLM, quer ser o sistema operativo global para agentes de IA.
A Microsoft anunciou os resultados financeiros do Q3 de 2025, com receitas e lucros superando amplamente as expectativas do mercado. As receitas neste trimestre atingiram 77,67 bilhões de dólares, um aumento de 18% em relação ao ano anterior, e o lucro por ação foi de 3,72 dólares. O destaque ficou para o setor de nuvem, com a receita do Azure apresentando um crescimento anual de 40%. No entanto, para fortalecer suas capacidades em IA e nuvem, o CapEx disparou para 34,9 bilhões de dólares, um recorde histórico. Além disso, devido ao impacto dos investimentos da OpenAI, o resultado operacional diminuiu 3,7 bilhões de dólares. Apesar dos fundamentos serem fortes, o aumento acelerado dos gastos de capital continua a ser o principal risco de preocupação para os investidores.
(OpenAI completou a reestruturação de capital e fundou a PBC! Avaliação mais recente de 500 bilhões de dólares, a Microsoft possui 27% de participação)
Em 2025, enquanto toda a indústria de IA estava loucamente expandindo sua capacidade de computação, a Microsoft seguiu um caminho oposto. A empresa silenciosamente suspendeu a construção de alguns centros de dados, o que levou a questionamentos externos: será que a Microsoft está desacelerando na onda global de infraestrutura de IA? No entanto, o CEO da Microsoft, Satya Nadella, revelou em uma recente entrevista profunda e teleconferência um pensamento estratégico completamente diferente: a Microsoft não está lenta, mas sim mais consciente do que qualquer outra pessoa: a competição da próxima geração de IA não dependerá de um único modelo, nem de colocar todas as fichas em uma única geração de GPU.
A Microsoft não prendeu a OpenAI, mas sim desenvolve ecossistemas horizontais e verticais.
O público em geral acredita que: a Microsoft gastou bilhões de dólares investindo na OpenAI, e, portanto, naturalmente, a direção tecnológica estará profundamente ligada à série GPT. Mas a declaração de Nadella é bastante diferente. Ele afirmou francamente que as empresas de modelos de linguagem em grande escala na verdade enfrentam um risco estrutural:
“Se você é uma empresa de modelos, é muito provável que enfrente a 'maldição do vencedor': a inovação que você criou com tanto esforço, assim que for copiada uma vez, se tornará imediatamente uma mercadoria.” Ele estava muito claro: ninguém sabe qual estrutura de modelo irá vencer. Pior ainda: modelos de código aberto com ajuste fino empresarial podem alcançar modelos de ponta em um curto espaço de tempo. Em outras palavras, a capacidade do modelo que você investiu 50 bilhões de dólares para treinar pode ser igualada instantaneamente por algum modelo de código aberto ajustado com dados privados.
Camada de andaimes (scaffolding) é a verdadeira barreira de proteção da IA, infraestrutura integrada da Microsoft, modelos, agentes
Portanto, a Microsoft não vai amarrar o futuro apenas à GPT, mas usará simultaneamente os modelos de ponta da OpenAI, apoiando o código aberto e outros fornecedores como Meta, Anthropic. Nadella acredita que os modelos em si se tornarão gradualmente commodities. A verdadeira barreira de entrada não está nos modelos, mas na camada de suporte. Assim, enquanto desenvolve seu próprio modelo MAI, também possui produtos como Copilot e Azure, cultivando seu próprio ecossistema. Ter dados e engenharia de contexto é a verdadeira barreira de entrada da Microsoft.
A Microsoft não é incapaz de construir, mas não está disposta a construir um enorme centro de dados para uma geração de GPUs.
Em 2025, muitas empresas estavam loucas para construir centros de dados GB200. Mas a estratégia da Microsoft era completamente diferente: pararam a construção de alguns centros de dados e passaram a alugar poder de computação de neocloud externos e mineradoras. Quanto à razão por trás, Nadella disse: Eu não quero construir um centro de dados de gigawatts que só possa ser usado por uma geração específica de GPUs ou por uma arquitetura de modelo específica.
Ele explicou que o design e a demanda do GB200 são diferentes do GB300, e que com o Vera Rubin Ultra, o consumo de energia e as necessidades de resfriamento serão completamente diferentes. A estratégia da Microsoft é desenvolver infraestruturas que possam crescer com o tempo, em vez de deixar o capital preso em infraestruturas que parecem impressionantes à primeira vista, mas se tornam custos irrecuperáveis em poucos meses.
Mais da metade do custo de construção de centros de dados de IA é gasto na aquisição de GPU.
( Barclays rebaixou a classificação da Oracle ORCL, perto de lixo! O CapEx disparou e o fluxo de caixa pode ser interrompido no próximo ano )
Segundo relatos, o custo de construção de centros de dados de IA pode chegar a 50 a 60 bilhões de dólares por GW, o que é três vezes o custo de centros de dados tradicionais, com mais da metade do custo vindo da compra de hardware de computação GPU como os da NVIDIA. Desde o início de 2025, a previsão de CapEx das empresas de tecnologia em todo o mundo para os próximos anos quase dobrou. Dentre elas, a Oracle ( tem uma relação dívida/capital de 500%, e o Barclays estima que, com o CapEx estabilizado, a empresa queimará todo o seu caixa já em novembro do próximo ano. Em contraste, a relação dívida/capital da Microsoft é de apenas 30%, o que indica uma situação financeira relativamente saudável.
Profissionais da indústria revelam que a vida útil real das CPUs dos centros de dados de IA é de apenas 1 a 3 anos.
Profissionais da indústria com experiência no Google revelaram que as CPUs usadas em centros de dados de IA têm uma vida útil de apenas 1 a 3 anos.
O protagonista do grande short, Michael Burry, também afirmou que o prazo de uso da IA reivindicado por muitas empresas de IA não é, na verdade, tão longo. Eles dependem da extensão do prazo de uso para embelezar o valor de depreciação anual nos relatórios financeiros. Burry estima que, entre 2026 e 2028, o total de depreciação subestimada dos gigantes da nuvem pode chegar a 176 bilhões de dólares. Com base nisso, ele prevê: “Até 2028, o lucro da 甲骨文 )Oracle( será superestimado em 26,9%, enquanto a Meta será superestimada em 20,8%.”
) O protagonista da grande venda a descoberto, Michael Burry, critica novamente os gigantes da IA: subestimam a depreciação e exageram os lucros, o que é uma fraude moderna (
A Microsoft não está disposta a ser amarrada por despesas de capital e está a adquirir poder de mineração.
Nadella enfatizou a fungibilidade ) intercambiabilidade (, a condição para a Microsoft investir pesadamente é que deve ser capaz de se adaptar a vários modelos de linguagem de grande escala, completar treinamentos em várias etapas, geração de dados, raciocínio, e também suportar múltiplas gerações de GPU, isso é o que dá sentido ao investimento. É por isso que a Microsoft prefere alugar poder computacional externo, em vez de ser presa a uma única geração de chip. Isso também explica por que muitos provedores de computação em nuvem, como a IREN, se tornaram parceiros da Microsoft recentemente, em vez de concorrentes.
)IREN assinou um grande contrato de 97 bilhões de dólares com a Microsoft para AI em nuvem, e o preço das ações subiu mais de 7%(
O modelo de negócios da Microsoft mudou de to C para to Agent
No passado, o modelo de negócios da Microsoft era vender serviços de software aos consumidores; hoje, o seu objetivo é vender infraestrutura para agentes de IA )Business to Agent(. A Microsoft não busca vencer a guerra dos modelos, mas sim ser a Microsoft da era dos agentes de IA. Os modelos se tornarão mais numerosos, mais atualizados e mais poderosos. O hardware terá uma densidade cada vez maior e consumirá mais energia a cada geração. Os centros de dados serão constantemente redesignados devido à nova demanda de energia. Mas uma coisa não mudará: os agentes de IA precisam de uma infraestrutura de classe mundial, confiável, auditável e compatível entre gerações para funcionar.
O que a Microsoft precisa fazer é isso. Esta também é a verdadeira mensagem que Satya Nadella quis transmitir nesta entrevista: os modelos vão mudar, os chips vão mudar, mas o “ambiente operacional do agente de IA” é o campo de batalha que permanece constante.
Este artigo analisa profundamente a grande estratégia de IA da Microsoft: não investir em competições de poder computacional, não apostar em LLM, para se tornar o sistema operacional global que atua como agente de IA, apareceu pela primeira vez na ABMedia da Chain News.