Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Tenho acompanhado a última chamada de resultados da Nvidia e Jensen Huang acabou de divulgar algo bastante significativo que a maioria das pessoas pode estar a ignorar. O homem basicamente disse aos investidores que a oportunidade de investimento em infraestrutura de IA é muito maior do que a maioria de nós pensa.
Aqui está o que chamou minha atenção: Jensen Huang apontou que, historicamente, o mundo gastava cerca de $400 bilhões anualmente em infraestrutura de computação clássica. Mas então ele fez uma afirmação ousada - a capacidade de computação necessária para cargas de trabalho de IA é mil vezes maior. Deixe isso assentar. Isso não é apenas um crescimento incremental, é uma escala de demanda completamente diferente.
No ano passado, ele sugeriu que os gastos em infraestrutura de data center de IA poderiam atingir $4 trilhões anualmente até 2030. Na altura, parecia ambicioso, mas se ele estiver certo sobre a magnitude do compute necessário, está começando a parecer mais realista. Especialmente agora que eles realmente estão reduzindo os custos de inferência.
E isso me leva à plataforma Vera Rubin. Isto não é apenas mais uma atualização de GPU. Segundo a Nvidia, os modelos podem ser treinados usando 75% menos GPUs em comparação com o Blackwell, e os custos por token de inferência caem 90%. Essa é a eficiência que muda a economia para todas as empresas de IA. Quando você consegue cortar custos dessa forma, o uso explode. Mais uso significa mais receita para as empresas que constroem esses modelos, o que significa que elas continuarão comprando mais chips. É um ciclo de feedback bastante limpo.
Eles já estão enviando amostras e escalando para produção em massa na segunda metade deste ano. O CFO literalmente disse que esperam que todos os principais provedores de nuvem implantem a Vera Rubin. Isso não é uma suposição - é confiança.
Olhando para os números, a Nvidia arrecadou US$ 215,9 bilhões em receita para o ano fiscal de 2026, um aumento de 65% em relação ao ano anterior. Data center representou US$ 193,7 bilhões disso, um aumento de 68%. E a gestão está orientando para $78 bilhões no primeiro trimestre do ano fiscal de 2027, o que seria um salto de 77%. Esses números não estão desacelerando - estão acelerando.
Mas o que é realmente impressionante é que a ação parece barata em termos de avaliação neste momento. Com um P/E de 36,1, o que representa um desconto de 41% em relação à média de 10 anos de 61,6. O consenso de Wall Street para os lucros do ano fiscal de 2027 é de US$ 8,23 por ação, dando um P/E futuro de apenas 21,5. O S&P 500 está sendo negociado a 24,7 hoje, então a Nvidia poderia ser literalmente mais barata do que o índice de mercado amplo se não mover muito no próximo ano.
Não estou tentando fazer uma previsão louca, mas se as estimativas de lucros se concretizarem, a matemática diz que a ação precisaria subir 186% só para atingir sua avaliação média histórica. E isso assumindo que não estamos subestimando a oportunidade.
A principal conclusão dos comentários de Jensen Huang é basicamente esta: ainda estamos nos primeiros innings dos gastos em infraestrutura de IA. A demanda que estão vendo agora não é o pico - é o começo. Eles estão literalmente competindo consigo mesmos porque não conseguem fabricar chips rápido o suficiente para atender à demanda. Os concorrentes estão tentando alcançar, mas o roteiro da Nvidia já está definido até 2026 e além.
Quando um CEO diz que o mercado é mil vezes maior do que o que gastamos historicamente em infraestrutura de computação, e a empresa está realmente executando essa visão com produtos que reduzem custos em 90%, isso merece atenção. Seja para construir uma posição ou apenas acompanhar o setor, essa perspectiva é bastante convincente.