El 17 de febrero, Meta y NVIDIA, dos gigantes tecnológicos estadounidenses, anunciaron la creación de una nueva asociación a largo plazo. La colaboración no solo implica un despliegue masivo de chips, sino también una optimización de toda la pila tecnológica, desde hardware hasta software. En un momento en que la competencia en el campo de la inteligencia artificial se intensifica, esta noticia ha generado una amplia atención en la industria. Tras el anuncio, las acciones de Meta y NVIDIA subieron en las operaciones posteriores al cierre, mientras que las de AMD cayeron más del 4% en ese mismo período.
Según la información divulgada por ambas partes, uno de los aspectos centrales de esta colaboración es que Meta desplegará millones de chips de NVIDIA en sus centros de datos, incluyendo GPUs con arquitectura Blackwell, la próxima generación de GPUs con arquitectura Rubin y procesadores centrales basados en Arm, como Grace. Es importante destacar que esta es la primera implementación a gran escala del CPU Grace de NVIDIA, desafiando el dominio tradicional de la arquitectura x86. Además, Meta planea introducir en 2027 una serie de procesadores Vera con mayor rendimiento, fortaleciendo aún más su presencia en el campo de la inteligencia artificial de alta eficiencia energética.
La profundidad de esta colaboración va mucho más allá de una simple adquisición de hardware. Los equipos de ingeniería de ambas compañías trabajarán en el diseño conjunto de hardware y software para la próxima generación de modelos de lenguaje a gran escala de Meta (como el sucesor del modelo Llama4, con el nombre en clave “Avocado”), con el fin de optimizar el rendimiento en todos los niveles. Mediante la integración de CPU, GPU, tecnologías de red (como Spectrum-X, la plataforma Ethernet) y ecosistema de software, NVIDIA ofrece a Meta una solución unificada que abarca entrenamiento, inferencia y procesamiento de datos.
Jensen Huang, fundador de NVIDIA, afirmó que actualmente ninguna otra compañía puede desplegar inteligencia artificial a gran escala como Meta. Meta combina investigación de vanguardia con infraestructura industrial para crear el sistema de mayor escala del mundo para miles de millones de usuarios. “Ninguna empresa en el mundo alcanza la escala de despliegue de IA de Meta, y la capacidad de diseño colaborativo permitirá maximizar el potencial tecnológico de ambas partes”, dijo.
Mediante un diseño profundo y colaborativo de CPU, GPU, redes y software, NVIDIA proporcionará a los investigadores y ingenieros de Meta una plataforma completa para construir la próxima generación de inteligencia artificial. Mark Zuckerberg, CEO de Meta, afirmó que ampliar la colaboración con NVIDIA y aprovechar su plataforma Vera Rubin permitirá construir clústeres líderes y ofrecer superinteligencia personal a todos en el mundo. Para Meta, esta colaboración no solo complementa su estrategia de desarrollo interno de chips, sino que también es una medida clave para hacer frente a la competencia.
Aunque Meta ha estado desarrollando activamente sus propios chips de IA en los últimos años, esta adquisición masiva de chips de NVIDIA se interpreta como un bloqueo a largo plazo de la capacidad de cálculo externo, asegurando que no quede rezagada en la competencia por la comercialización de IA frente a rivales como Google y Microsoft. Zuckerberg enfatizó que esta iniciativa es un pilar fundamental para lograr su visión de “proporcionar superinteligencia personal a los usuarios globales”.
Además, en su comunicado, Meta mencionó que integrará la tecnología de seguridad de NVIDIA en las funciones de IA de WhatsApp. Zuckerberg afirmó que al incorporar la tecnología de computación confidencial de NVIDIA, Meta podrá mejorar el rendimiento mientras cumple con estrictos requisitos de seguridad de datos y protección de la privacidad.
Los analistas consideran que el tamaño de esta colaboración podría alcanzar varios miles de millones de dólares. El mes pasado, Meta anunció que su gasto de capital para 2026 podría llegar hasta 135 mil millones de dólares, gran parte de los cuales se destinará a infraestructura de IA. Ben Bajarin, analista de chips de Creative Strategies, señaló: “La adopción masiva por parte de Meta valida la estrategia de infraestructura ‘todo en uno’ de NVIDIA, que combina CPU y GPU”. Destacó que estos chips están diseñados específicamente para cargas de trabajo de inferencia y tareas de agentes inteligentes, en un momento en que la industria de IA avanza del entrenamiento a la inferencia.
Es importante notar que Meta ha estado promoviendo su estrategia de desarrollo interno de chips de IA, con el objetivo de optimizar el rendimiento para cargas de trabajo específicas y reducir costos. Sin embargo, fuentes cercanas indican que estos proyectos han enfrentado desafíos técnicos y retrasos en la implementación, lo que ha llevado a la compañía a seguir confiando en las soluciones maduras de NVIDIA. A pesar de ello, Meta no depende completamente de NVIDIA; en noviembre pasado, se informó que Meta consideraba introducir procesadores tensor de Google en sus centros de datos en 2027 para diversificar sus fuentes de potencia de cálculo.
Esta colaboración ha tenido un impacto directo en los competidores de NVIDIA, como AMD. Tras el anuncio, las acciones de AMD cayeron más del 4% en las operaciones posteriores al cierre, mientras que las de Meta y NVIDIA subieron un 1.5% y un 1.8%, respectivamente, reflejando un alto reconocimiento del mercado hacia esta asociación.
El mercado en general considera que este pedido de gran escala disipó las preocupaciones de los inversores sobre la dependencia de grandes clientes en chips propios. Analistas de Wall Street señalaron que NVIDIA, mediante la integración de Grace CPU, Rubin GPU y Spectrum-X, ha consolidado su liderazgo en infraestructura de IA, y que el plan de inversión de Meta revela su determinación de liderar en IA. Sin embargo, también existen preocupaciones sobre posibles presiones en los márgenes de beneficio de Meta, aunque su estrategia de asegurar capacidad de cálculo a largo plazo sigue siendo vista como una defensa efectiva contra la competencia.
Desde una perspectiva industrial, la colaboración entre NVIDIA y Meta refleja un cambio en el centro de gravedad del cálculo en IA, que se desplaza del entrenamiento de modelos hacia la inferencia. Las tareas de inferencia requieren cálculos eficientes y de baja latencia, y el CPU Grace de NVIDIA está específicamente diseñado para estas necesidades, con un rendimiento y consumo energético superiores a los CPU tradicionales. A medida que la demanda de inferencia de IA para miles de millones de usuarios crece día a día, la adopción de CPU Grace optimizadas será clave para controlar el consumo energético y mejorar la eficiencia.
Este acuerdo también indica un cambio significativo en la dinámica competitiva del sector. Para gigantes tradicionales como Intel y AMD, la inclinación de Meta hacia CPUs basados en arquitectura Arm representa una advertencia seria, sugiriendo que la estructura de poder en el mercado de centros de datos a gran escala está en proceso de cambio estructural. Informes de análisis autorizados muestran que empresas líderes como Amazon, Alphabet y Meta continuarán aumentando su gasto de capital en 2026, con cientos de miles de millones de dólares destinados a la construcción de centros de datos centrados en GPUs de NVIDIA. Esta demanda constante y altamente predecible ayuda a contrarrestar las preocupaciones previas del mercado sobre el retorno de inversión en IA.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Meta amplía su colaboración con NVIDIA, la competencia en la industria se intensifica
El 17 de febrero, Meta y NVIDIA, dos gigantes tecnológicos estadounidenses, anunciaron la creación de una nueva asociación a largo plazo. La colaboración no solo implica un despliegue masivo de chips, sino también una optimización de toda la pila tecnológica, desde hardware hasta software. En un momento en que la competencia en el campo de la inteligencia artificial se intensifica, esta noticia ha generado una amplia atención en la industria. Tras el anuncio, las acciones de Meta y NVIDIA subieron en las operaciones posteriores al cierre, mientras que las de AMD cayeron más del 4% en ese mismo período.
Según la información divulgada por ambas partes, uno de los aspectos centrales de esta colaboración es que Meta desplegará millones de chips de NVIDIA en sus centros de datos, incluyendo GPUs con arquitectura Blackwell, la próxima generación de GPUs con arquitectura Rubin y procesadores centrales basados en Arm, como Grace. Es importante destacar que esta es la primera implementación a gran escala del CPU Grace de NVIDIA, desafiando el dominio tradicional de la arquitectura x86. Además, Meta planea introducir en 2027 una serie de procesadores Vera con mayor rendimiento, fortaleciendo aún más su presencia en el campo de la inteligencia artificial de alta eficiencia energética.
La profundidad de esta colaboración va mucho más allá de una simple adquisición de hardware. Los equipos de ingeniería de ambas compañías trabajarán en el diseño conjunto de hardware y software para la próxima generación de modelos de lenguaje a gran escala de Meta (como el sucesor del modelo Llama4, con el nombre en clave “Avocado”), con el fin de optimizar el rendimiento en todos los niveles. Mediante la integración de CPU, GPU, tecnologías de red (como Spectrum-X, la plataforma Ethernet) y ecosistema de software, NVIDIA ofrece a Meta una solución unificada que abarca entrenamiento, inferencia y procesamiento de datos.
Jensen Huang, fundador de NVIDIA, afirmó que actualmente ninguna otra compañía puede desplegar inteligencia artificial a gran escala como Meta. Meta combina investigación de vanguardia con infraestructura industrial para crear el sistema de mayor escala del mundo para miles de millones de usuarios. “Ninguna empresa en el mundo alcanza la escala de despliegue de IA de Meta, y la capacidad de diseño colaborativo permitirá maximizar el potencial tecnológico de ambas partes”, dijo.
Mediante un diseño profundo y colaborativo de CPU, GPU, redes y software, NVIDIA proporcionará a los investigadores y ingenieros de Meta una plataforma completa para construir la próxima generación de inteligencia artificial. Mark Zuckerberg, CEO de Meta, afirmó que ampliar la colaboración con NVIDIA y aprovechar su plataforma Vera Rubin permitirá construir clústeres líderes y ofrecer superinteligencia personal a todos en el mundo. Para Meta, esta colaboración no solo complementa su estrategia de desarrollo interno de chips, sino que también es una medida clave para hacer frente a la competencia.
Aunque Meta ha estado desarrollando activamente sus propios chips de IA en los últimos años, esta adquisición masiva de chips de NVIDIA se interpreta como un bloqueo a largo plazo de la capacidad de cálculo externo, asegurando que no quede rezagada en la competencia por la comercialización de IA frente a rivales como Google y Microsoft. Zuckerberg enfatizó que esta iniciativa es un pilar fundamental para lograr su visión de “proporcionar superinteligencia personal a los usuarios globales”.
Además, en su comunicado, Meta mencionó que integrará la tecnología de seguridad de NVIDIA en las funciones de IA de WhatsApp. Zuckerberg afirmó que al incorporar la tecnología de computación confidencial de NVIDIA, Meta podrá mejorar el rendimiento mientras cumple con estrictos requisitos de seguridad de datos y protección de la privacidad.
Los analistas consideran que el tamaño de esta colaboración podría alcanzar varios miles de millones de dólares. El mes pasado, Meta anunció que su gasto de capital para 2026 podría llegar hasta 135 mil millones de dólares, gran parte de los cuales se destinará a infraestructura de IA. Ben Bajarin, analista de chips de Creative Strategies, señaló: “La adopción masiva por parte de Meta valida la estrategia de infraestructura ‘todo en uno’ de NVIDIA, que combina CPU y GPU”. Destacó que estos chips están diseñados específicamente para cargas de trabajo de inferencia y tareas de agentes inteligentes, en un momento en que la industria de IA avanza del entrenamiento a la inferencia.
Es importante notar que Meta ha estado promoviendo su estrategia de desarrollo interno de chips de IA, con el objetivo de optimizar el rendimiento para cargas de trabajo específicas y reducir costos. Sin embargo, fuentes cercanas indican que estos proyectos han enfrentado desafíos técnicos y retrasos en la implementación, lo que ha llevado a la compañía a seguir confiando en las soluciones maduras de NVIDIA. A pesar de ello, Meta no depende completamente de NVIDIA; en noviembre pasado, se informó que Meta consideraba introducir procesadores tensor de Google en sus centros de datos en 2027 para diversificar sus fuentes de potencia de cálculo.
Esta colaboración ha tenido un impacto directo en los competidores de NVIDIA, como AMD. Tras el anuncio, las acciones de AMD cayeron más del 4% en las operaciones posteriores al cierre, mientras que las de Meta y NVIDIA subieron un 1.5% y un 1.8%, respectivamente, reflejando un alto reconocimiento del mercado hacia esta asociación.
El mercado en general considera que este pedido de gran escala disipó las preocupaciones de los inversores sobre la dependencia de grandes clientes en chips propios. Analistas de Wall Street señalaron que NVIDIA, mediante la integración de Grace CPU, Rubin GPU y Spectrum-X, ha consolidado su liderazgo en infraestructura de IA, y que el plan de inversión de Meta revela su determinación de liderar en IA. Sin embargo, también existen preocupaciones sobre posibles presiones en los márgenes de beneficio de Meta, aunque su estrategia de asegurar capacidad de cálculo a largo plazo sigue siendo vista como una defensa efectiva contra la competencia.
Desde una perspectiva industrial, la colaboración entre NVIDIA y Meta refleja un cambio en el centro de gravedad del cálculo en IA, que se desplaza del entrenamiento de modelos hacia la inferencia. Las tareas de inferencia requieren cálculos eficientes y de baja latencia, y el CPU Grace de NVIDIA está específicamente diseñado para estas necesidades, con un rendimiento y consumo energético superiores a los CPU tradicionales. A medida que la demanda de inferencia de IA para miles de millones de usuarios crece día a día, la adopción de CPU Grace optimizadas será clave para controlar el consumo energético y mejorar la eficiencia.
Este acuerdo también indica un cambio significativo en la dinámica competitiva del sector. Para gigantes tradicionales como Intel y AMD, la inclinación de Meta hacia CPUs basados en arquitectura Arm representa una advertencia seria, sugiriendo que la estructura de poder en el mercado de centros de datos a gran escala está en proceso de cambio estructural. Informes de análisis autorizados muestran que empresas líderes como Amazon, Alphabet y Meta continuarán aumentando su gasto de capital en 2026, con cientos de miles de millones de dólares destinados a la construcción de centros de datos centrados en GPUs de NVIDIA. Esta demanda constante y altamente predecible ayuda a contrarrestar las preocupaciones previas del mercado sobre el retorno de inversión en IA.