Bienvenido a Eye on AI, con la reportera de IA Sharon Goldman. En esta edición: Los centros de datos en el espacio son factibles, pero aún no listos para su lanzamiento…Accenture vincula promociones a inicios de sesión en IA…La startup World Labs, fundada por la pionera en IA Fei-Fei Li, levanta 1 mil millones de dólares. El acuerdo de Nvidia con Meta señala una nueva era en el poder de computación.
Video recomendado
La industria de la IA está en una especie de viaje de poder—literalmente—y se está volviendo desesperada. Los centros de datos ya representan aproximadamente el 4% del consumo eléctrico en EE. UU., una participación que se espera más que duplique para 2030, ya que ejecutar y entrenar modelos de IA requiere cada vez más gigavatios de energía. Los analistas proyectan que la demanda global de energía para centros de datos podría aumentar hasta un 165% para fines de la década, incluso cuando la infraestructura de generación y transmisión nueva va años por detrás de la demanda. En respuesta, los hyperscalers están luchando por cerrar acuerdos para construir sus propias plantas de gas, explorando pequeños reactores nucleares y buscando energía donde puedan encontrarla.
En ese contexto, no sorprende que algunos de los mayores actores de la industria comiencen a mirar hacia el espacio exterior en busca de una solución.
En un reportaje publicado esta mañana, profundizo en cómo—a pesar de que las empresas tecnológicas están en camino de gastar más de 5 billones de dólares a nivel mundial en centros de datos de IA en la Tierra para fines de la década—Elon Musk argumenta que el futuro del poder de computación en IA está en el espacio, alimentado por energía solar. Musk ha sugerido que la economía y la ingeniería podrían alinearse en solo unos pocos años, incluso prediciendo que en cinco años podría haber más capacidad de computación en IA en órbita que en la Tierra.
La idea de centros orbitales no es nueva. Desde 2015, Fortune ya planteaba la pregunta: ¿Y si colocamos servidores en el espacio?
Lo que ha cambiado es la urgencia. La crisis energética actual ha puesto el concepto de nuevo en una conversación seria, con startups como Starcloud ganando atención y líderes de Big Tech como el ex CEO de Google, Eric Schmidt, el CEO de Alphabet, Sundar Pichai, y Jeff Bezos de Amazon, dirigiendo su atención a las posibilidades de lanzar centros de datos en órbita.
Sin embargo, aunque Musk y otros optimistas argumentan que la computación en IA basada en el espacio podría volverse rentable relativamente rápido, muchos expertos dicen que cualquier escala significativa todavía está a décadas de distancia. Las limitaciones en generación de energía, disipación de calor, logística de lanzamiento y costos aún hacen que sea poco práctico—y por ahora, la mayor parte de la inversión en IA sigue fluyendo hacia la infraestructura terrestre. Los pilotos a pequeña escala de computación orbital podrían ser factibles en los próximos años, argumentan, pero el espacio sigue siendo un mal sustituto para los centros de datos en la Tierra en un futuro cercano.
No es difícil entender el atractivo, aunque: Hablando con fuentes para esta historia, quedó claro que la idea de centros de datos en el espacio ya no es ciencia ficción—la física en su mayoría funciona. “Sabemos cómo lanzar cohetes; sabemos cómo poner naves en órbita; y sabemos cómo construir paneles solares para generar energía,” me dijo Jeff Thornburg, veterano de SpaceX que lideró el desarrollo del motor Raptor de SpaceX. “Y empresas como SpaceX están demostrando que podemos producir vehículos espaciales en masa a menor costo.”
El problema es que todo lo demás, desde construir enormes paneles solares hasta reducir costos de lanzamiento, avanza mucho más lentamente que el ciclo de hype de la IA actual. Aún así, Thornburg dijo que a largo plazo, las presiones energéticas que impulsan el interés en los centros de datos orbitales probablemente no desaparecerán. “Los ingenieros encontrarán maneras de hacer que esto funcione,” afirmó. “A largo plazo, solo es cuestión de cuánto tiempo nos tomará.”
El CEO de Google, Sundar Pichai, dice que gastar en IA todavía tiene sentido a pesar de los temores de burbuja – por Beatrice Nolan
Bill Gates se retira de última hora del cumbre de IA en India, en el último golpe a un evento marcado por el caos organizacional – por Beatrice Nolan
Elon Musk impulsa la construcción de centros de datos en el espacio. Pero no resolverán los problemas de energía de la IA pronto – por Sharon Goldman
¿Quién es Peter Steinberger, creador de OpenClaw? El desarrollador millennial llamó la atención de Sam Altman y Mark Zuckerberg – por Eva Roytburg
Exclusiva: Bain y Greylock apuestan 42 millones de dólares a que los agentes de IA finalmente podrán solucionar los problemas más complejos de ciberseguridad – por Lily Mae Lazarus
NOTICIAS SOBRE IA
Accenture vincula promociones a inicios de sesión en IA. Accenture está comenzando a rastrear el uso de sus empleados senior de sus herramientas internas de IA—y a considerar esos datos en las decisiones de promoción—destacando cómo incluso las consultoras con fuerte enfoque en IA están luchando por que su personal de alto nivel cambie su forma de trabajar. Según comunicaciones internas vistas por Financial Times, las promociones a roles de liderazgo ahora requerirán “uso regular” de herramientas de IA, con Accenture monitoreando los inicios de sesión de algunos gerentes senior como parte de las revisiones de talento de este verano. La medida refleja un desafío más amplio en firmas de consultoría y contabilidad, donde los ejecutivos dicen que los socios senior son mucho más reacios a adoptar IA que los empleados más jóvenes, lo que ha llevado a una estrategia de “recompensa y sanción”. Aunque Accenture afirma que ha capacitado a más de 550,000 empleados en IA generativa y está reorganizando su estructura en torno a una unidad centrada en IA llamada “Reinvention Services,” la política ha generado críticas internas—incluyendo reclamos de que algunas herramientas son poco confiables—y subraya la brecha cada vez mayor entre la ambición en IA y su uso cotidiano en las empresas.
La pionera en IA Fei-Fei Li y su startup World Labs levantan 1 mil millones de dólares.Bloomberg informó que World Labs, una startup fundada por la pionera en IA Fei-Fei Li, ha recaudado 1 mil millones de dólares en una nueva ronda de financiamiento para perseguir “modelos mundiales,” un enfoque destinado a ayudar a los sistemas de IA a razonar y operar en el mundo físico tridimensional. La ronda incluyó una inversión de 200 millones de dólares de Autodesk, junto con respaldo de Andreessen Horowitz, Nvidia y Advanced Micro Devices, según la compañía. World Labs se une a un grupo creciente de startups centradas en modelos mundiales, incluyendo una liderada por Yann LeCun, mientras los inversores miran más allá de los grandes modelos de lenguaje hacia sistemas de IA más adecuados para la robótica y el descubrimiento científico. La empresa lanzó su primer producto, Marble, a finales del año pasado, que genera entornos 3D a partir de textos o imágenes, y dice que el nuevo capital acelerará el trabajo en esas áreas. Li es conocida por su papel en la creación de ImageNet, un conjunto de datos fundamental que impulsó avances modernos en visión por computadora; la startup no reveló su valoración, aunque Bloomberg News informó previamente que había estado en conversaciones en torno a una cifra de aproximadamente 5 mil millones de dólares.
El acuerdo de Nvidia con Meta señala una nueva era en el poder de computación. Una historia en Wired argumenta que el último acuerdo de Nvidia con Meta marca un cambio en cómo se construye el poder de computación en IA. Ya no se trata solo de comprar GPUs más potentes para entrenar modelos de IA; ahora las empresas necesitan un stack completo de chips para operarlos a escala. Junto con miles de millones de dólares en GPUs de Nvidia, Meta también está comprando CPUs Grace de Nvidia—haciendo que sea la primera gran empresa tecnológica en comprometerse públicamente con estos chips a gran escala. Los analistas dicen que el movimiento refleja cómo los sistemas de IA más nuevos, especialmente la llamada IA “agente”, que realiza tareas de forma continua, dependen en gran medida de CPUs tradicionales para coordinar datos, gestionar flujos de trabajo y soportar inferencias. Un informe reciente de Semianalysis destaca este punto, señalando que algunos centros de datos de IA ahora requieren decenas de miles de CPUs solo para manejar los datos producidos por las GPUs—una carga de infraestructura que apenas existía antes del auge de la IA.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
La IA se está quedando sin energía. El espacio no será una salida de emergencia durante décadas
Bienvenido a Eye on AI, con la reportera de IA Sharon Goldman. En esta edición: Los centros de datos en el espacio son factibles, pero aún no listos para su lanzamiento…Accenture vincula promociones a inicios de sesión en IA…La startup World Labs, fundada por la pionera en IA Fei-Fei Li, levanta 1 mil millones de dólares. El acuerdo de Nvidia con Meta señala una nueva era en el poder de computación.
Video recomendado
La industria de la IA está en una especie de viaje de poder—literalmente—y se está volviendo desesperada. Los centros de datos ya representan aproximadamente el 4% del consumo eléctrico en EE. UU., una participación que se espera más que duplique para 2030, ya que ejecutar y entrenar modelos de IA requiere cada vez más gigavatios de energía. Los analistas proyectan que la demanda global de energía para centros de datos podría aumentar hasta un 165% para fines de la década, incluso cuando la infraestructura de generación y transmisión nueva va años por detrás de la demanda. En respuesta, los hyperscalers están luchando por cerrar acuerdos para construir sus propias plantas de gas, explorando pequeños reactores nucleares y buscando energía donde puedan encontrarla.
En ese contexto, no sorprende que algunos de los mayores actores de la industria comiencen a mirar hacia el espacio exterior en busca de una solución.
En un reportaje publicado esta mañana, profundizo en cómo—a pesar de que las empresas tecnológicas están en camino de gastar más de 5 billones de dólares a nivel mundial en centros de datos de IA en la Tierra para fines de la década—Elon Musk argumenta que el futuro del poder de computación en IA está en el espacio, alimentado por energía solar. Musk ha sugerido que la economía y la ingeniería podrían alinearse en solo unos pocos años, incluso prediciendo que en cinco años podría haber más capacidad de computación en IA en órbita que en la Tierra.
La idea de centros orbitales no es nueva. Desde 2015, Fortune ya planteaba la pregunta: ¿Y si colocamos servidores en el espacio?
Lo que ha cambiado es la urgencia. La crisis energética actual ha puesto el concepto de nuevo en una conversación seria, con startups como Starcloud ganando atención y líderes de Big Tech como el ex CEO de Google, Eric Schmidt, el CEO de Alphabet, Sundar Pichai, y Jeff Bezos de Amazon, dirigiendo su atención a las posibilidades de lanzar centros de datos en órbita.
Sin embargo, aunque Musk y otros optimistas argumentan que la computación en IA basada en el espacio podría volverse rentable relativamente rápido, muchos expertos dicen que cualquier escala significativa todavía está a décadas de distancia. Las limitaciones en generación de energía, disipación de calor, logística de lanzamiento y costos aún hacen que sea poco práctico—y por ahora, la mayor parte de la inversión en IA sigue fluyendo hacia la infraestructura terrestre. Los pilotos a pequeña escala de computación orbital podrían ser factibles en los próximos años, argumentan, pero el espacio sigue siendo un mal sustituto para los centros de datos en la Tierra en un futuro cercano.
No es difícil entender el atractivo, aunque: Hablando con fuentes para esta historia, quedó claro que la idea de centros de datos en el espacio ya no es ciencia ficción—la física en su mayoría funciona. “Sabemos cómo lanzar cohetes; sabemos cómo poner naves en órbita; y sabemos cómo construir paneles solares para generar energía,” me dijo Jeff Thornburg, veterano de SpaceX que lideró el desarrollo del motor Raptor de SpaceX. “Y empresas como SpaceX están demostrando que podemos producir vehículos espaciales en masa a menor costo.”
El problema es que todo lo demás, desde construir enormes paneles solares hasta reducir costos de lanzamiento, avanza mucho más lentamente que el ciclo de hype de la IA actual. Aún así, Thornburg dijo que a largo plazo, las presiones energéticas que impulsan el interés en los centros de datos orbitales probablemente no desaparecerán. “Los ingenieros encontrarán maneras de hacer que esto funcione,” afirmó. “A largo plazo, solo es cuestión de cuánto tiempo nos tomará.”
Con eso, aquí más noticias sobre IA.
Sharon Goldman
sharon.goldman@fortune.com
@sharongoldman
FORTUNE SOBRE IA
El CEO de Google, Sundar Pichai, dice que gastar en IA todavía tiene sentido a pesar de los temores de burbuja – por Beatrice Nolan
Bill Gates se retira de última hora del cumbre de IA en India, en el último golpe a un evento marcado por el caos organizacional – por Beatrice Nolan
Elon Musk impulsa la construcción de centros de datos en el espacio. Pero no resolverán los problemas de energía de la IA pronto – por Sharon Goldman
¿Quién es Peter Steinberger, creador de OpenClaw? El desarrollador millennial llamó la atención de Sam Altman y Mark Zuckerberg – por Eva Roytburg
Exclusiva: Bain y Greylock apuestan 42 millones de dólares a que los agentes de IA finalmente podrán solucionar los problemas más complejos de ciberseguridad – por Lily Mae Lazarus
NOTICIAS SOBRE IA
Accenture vincula promociones a inicios de sesión en IA. Accenture está comenzando a rastrear el uso de sus empleados senior de sus herramientas internas de IA—y a considerar esos datos en las decisiones de promoción—destacando cómo incluso las consultoras con fuerte enfoque en IA están luchando por que su personal de alto nivel cambie su forma de trabajar. Según comunicaciones internas vistas por Financial Times, las promociones a roles de liderazgo ahora requerirán “uso regular” de herramientas de IA, con Accenture monitoreando los inicios de sesión de algunos gerentes senior como parte de las revisiones de talento de este verano. La medida refleja un desafío más amplio en firmas de consultoría y contabilidad, donde los ejecutivos dicen que los socios senior son mucho más reacios a adoptar IA que los empleados más jóvenes, lo que ha llevado a una estrategia de “recompensa y sanción”. Aunque Accenture afirma que ha capacitado a más de 550,000 empleados en IA generativa y está reorganizando su estructura en torno a una unidad centrada en IA llamada “Reinvention Services,” la política ha generado críticas internas—incluyendo reclamos de que algunas herramientas son poco confiables—y subraya la brecha cada vez mayor entre la ambición en IA y su uso cotidiano en las empresas.
La pionera en IA Fei-Fei Li y su startup World Labs levantan 1 mil millones de dólares. Bloomberg informó que World Labs, una startup fundada por la pionera en IA Fei-Fei Li, ha recaudado 1 mil millones de dólares en una nueva ronda de financiamiento para perseguir “modelos mundiales,” un enfoque destinado a ayudar a los sistemas de IA a razonar y operar en el mundo físico tridimensional. La ronda incluyó una inversión de 200 millones de dólares de Autodesk, junto con respaldo de Andreessen Horowitz, Nvidia y Advanced Micro Devices, según la compañía. World Labs se une a un grupo creciente de startups centradas en modelos mundiales, incluyendo una liderada por Yann LeCun, mientras los inversores miran más allá de los grandes modelos de lenguaje hacia sistemas de IA más adecuados para la robótica y el descubrimiento científico. La empresa lanzó su primer producto, Marble, a finales del año pasado, que genera entornos 3D a partir de textos o imágenes, y dice que el nuevo capital acelerará el trabajo en esas áreas. Li es conocida por su papel en la creación de ImageNet, un conjunto de datos fundamental que impulsó avances modernos en visión por computadora; la startup no reveló su valoración, aunque Bloomberg News informó previamente que había estado en conversaciones en torno a una cifra de aproximadamente 5 mil millones de dólares.
El acuerdo de Nvidia con Meta señala una nueva era en el poder de computación. Una historia en Wired argumenta que el último acuerdo de Nvidia con Meta marca un cambio en cómo se construye el poder de computación en IA. Ya no se trata solo de comprar GPUs más potentes para entrenar modelos de IA; ahora las empresas necesitan un stack completo de chips para operarlos a escala. Junto con miles de millones de dólares en GPUs de Nvidia, Meta también está comprando CPUs Grace de Nvidia—haciendo que sea la primera gran empresa tecnológica en comprometerse públicamente con estos chips a gran escala. Los analistas dicen que el movimiento refleja cómo los sistemas de IA más nuevos, especialmente la llamada IA “agente”, que realiza tareas de forma continua, dependen en gran medida de CPUs tradicionales para coordinar datos, gestionar flujos de trabajo y soportar inferencias. Un informe reciente de Semianalysis destaca este punto, señalando que algunos centros de datos de IA ahora requieren decenas de miles de CPUs solo para manejar los datos producidos por las GPUs—una carga de infraestructura que apenas existía antes del auge de la IA.