La era de abundancia digital, cuando cualquier entusiasta podía montar un servidor casero capaz de competir con las capacidades de una pequeña empresa, está llegando a su fin. La posesión de hardware progresivo propio cada vez adquiere un tono más elitista frente al aumento de los precios de los chips de memoria y la creciente lista de espera para preórdenes.
En el nuevo material de ForkLog, analizamos por qué las tarjetas gráficas se han convertido en un recurso para la industria de la IA, por qué Nvidia ya no favorece a los gamers y por qué los diseñadores freelance deben alquilar potencia en centros de datos en la nube. Pero la principal pregunta que intentamos responder es: ¿cómo afectará la escasez de chips a la descentralización de la blockchain, donde en la mayoría de los casos los SSD y la DRAM juegan un papel clave?
Feudalismo tecnológico o dificultades temporales
Recientemente, según las declaraciones de líderes de la industria de IA y fabricantes de microchips, parece que la era de poseer una PC potente propia está llegando a su fin.
En el ámbito informativo se discute activamente la intervención del fundador de Amazon, Jeff Bezos, en 2024, cuando comparó el uso de PC con un generador eléctrico en tiempos de suministro eléctrico centralizado. Algunos en la comunidad lo consideran un profeta en la situación actual.
Los modelos más recientes de hardware se han convertido en el principal recurso computacional para entrenar y mantener los LLM. La IA está agotando los inventarios de microchips HBM, cuya capacidad antes pertenecía al segmento de consumidores de SSD y memoria RAM. Como resultado del aumento de precios de los componentes, el mercado podría perder en este año toda una categoría de dispositivos económicos.
A principios de febrero, los investigadores de TrendForce aumentaron sus pronósticos sobre el costo de los chips. Esperan un aumento del 90–95% en los contratos de memoria DRAM para usuarios en el primer trimestre de 2026, debido al auge del segmento de IA. La previsión anterior era del 55–60%.
Además, entrenar LLM requiere volúmenes colosales de datos. El sector corporativo ha comprado reservas de SSD de 2 TB o más, con alta resistencia a escrituras. Los fabricantes de chips de silicio, que obtienen mayores ingresos del mantenimiento del sector de IA, planean reorganizar sus capacidades de producción.
A finales de 2025, Micron Technology, líder en la fabricación de microchips de memoria — anteriormente uno de los defensores más activos de mantener el segmento de escritorio — anunció el cierre de su línea de productos para consumidores Crucial. La producción se detendrá en el segundo trimestre de 2026 tras casi 30 años de existencia de la marca.
También planean aumentar la producción de microchips HBM. La compañía invirtió 9,6 mil millones de dólares en la construcción de nuevas capacidades en Hiroshima, Japón.
El 12 de febrero, Samsung Electronics anunció el inicio de entregas de los avanzados chips HBM4 a clientes no especificados. Con ello, la compañía intenta reducir la brecha con los competidores en componentes críticos para los aceleradores de IA de Nvidia, incluyendo SK Hynix.
El mayor fabricante de microchips del mundo se encuentra en una posición difícil: es el principal proveedor de memoria para Nvidia y, al mismo tiempo, líder en el segmento de smartphones y electrónica de consumo. Es importante para la compañía mantener contratos de alta rentabilidad en IA sin perder su posición en la fabricación de gadgets.
En septiembre del año pasado, la dirección de Samsung Semiconductor intentó equilibrar la situación. La compañía confirmó que las líneas de producción de memoria para las tarjetas gráficas de gama alta — GDDR7 — pueden abastecer tanto a gamers y creadores de contenido como a estaciones de trabajo profesionales.
Estas microchips se usan en la flagship de Nvidia para gamers — GeForce RTX 5090. Presentada en enero de 2025, sigue siendo la líder indiscutible, y el precio anunciado hace un año de 1999 dólares no refleja la realidad actual. Al momento de redactar este artículo, las ofertas oscilan entre 4000 y 5000 dólares.
Fuente: Nvidia. El mercado altamente adaptable de China, como de costumbre, aprovecha las oportunidades. Según Nikkei Asia, los principales fabricantes chinos de memoria CXMT y YMTC planean ampliar significativamente sus capacidades.
En 2027, planean lanzar fábricas en Shanghái y Wuhan, centrando la producción principalmente en DRAM y NAND, no en HBM, como hacen los líderes del mercado.
El ex CIO/CTO de Bitfury Group y cofundador de Hyperfusion, Alex Petrov, opina que no tiene sentido esperar que los precios bajen, sino que es mejor redistribuir los gastos.
«No hay que esperar, vivimos aquí y ahora. Si necesitas hardware para trabajar, minar o un nodo, lo mejor es comprar ahora, aceptando los altos precios, y reservar lo que puedas prescindir temporalmente. La demanda aplazada para 2028 puede ser enorme e impredecible, así que hay que confiar en las viejas DDR3/4 y en la salida de nuevas DDR6», compartió el experto en un comentario para ForkLog.
¿Por qué las tarjetas gráficas?
¿Por qué las tarjetas gráficas, que en 2000 permitían jugar Quake III Arena y en 2015 Fallout 4, primero fueron tomadas por la minería PoW y luego absorbidas por la industria de la IA? La respuesta radica en la especificidad de los aceleradores gráficos, que es más fácil de explicar comparándolos con la CPU.
La CPU es un genio capaz de resolver cualquier tarea de programación: escribir poesía, calcular impuestos, gestionar el sistema operativo. Pero sus acciones se realizan de forma secuencial en cada núcleo.
En contraste, la GPU es como una fábrica con miles de trabajadores simples. Cada uno es menos inteligente que un genio, pero pueden actuar simultáneamente.
Para renderizar un cuadro en un juego, hay que calcular el color de millones de píxeles. Esto equivale a la misma cantidad de operaciones matemáticas por segundo. El chip gráfico fue creado para cálculos paralelos.
Una situación similar ocurre en la minería PoW con tarjetas gráficas. La minería es una especie de lotería donde el dispositivo debe buscar millones de veces por segundo un número aleatorio para encontrar el hash correcto. La GPU era perfecta para estos fines, lo que llevó a la primera ola de escasez hasta que Ethereum cambió a PoS en 2022.
Los procesadores gráficos se convirtieron en un hallazgo para la industria de la IA. Los modelos grandes de lenguaje como ChatGPT o Gemini son, en esencia, enormes tablas de números (matrices). Su entrenamiento consiste en multiplicar continuamente estas matrices para ajustar los «pesos» (conexiones entre neuronas).
Resultó que la matemática que crea reflejos en el agua en Cyberpunk 2077 es la misma álgebra lineal que sustenta el entrenamiento de redes neuronales. Pero la IA requiere no solo cálculos potentes, sino también una velocidad de transferencia de datos colosal. La memoria de videojuegos convencional no basta para esto; en su lugar, se ha utilizado la costosa y escasa memoria HBM, que hoy en día es objeto de lucha entre los gigantes tecnológicos.
Nvidia entendió la tendencia a tiempo y, desde la arquitectura Volta, empezó a incluir en sus tarjetas «núcleos tensoriales». Son capaces de multiplicar matrices simultáneamente, diseñados exclusivamente para tareas de IA.
GPU por hora y pérdida de offline
En la situación actual, los próximos dos años, los creadores de contenido, videógrafos, diseñadores, gamers, programadores, arquitectos de IA y todos cuyos trabajos dependen críticamente del hardware potente, tendrán que decidir. ¿Optar por el alquiler de potencia en la nube o pagar mucho más por una actualización de su PC?
Dado el déficit y las listas de espera para componentes específicos, la demanda por suscripción está creciendo, haciendo que los centros de datos en la nube sean más orientados al cliente. Existen empresas que ofrecen acceso flexible a cálculos y GPUs en alquiler, como Lambda Labs, Vast.ai, Hyperfusion, LeaderGPU, Hostkey y otros.
El servicio RunPod ofrece usar la tarjeta de gama alta RTX 5090 por 0,89 dólares la hora.
Fuente: Runpod. La plataforma Shadow proporciona escritorio remoto sin restricciones para ejecutar juegos y software profesional para ingenieros y diseñadores. Servicios similares como GeForce Now o Xbox Cloud no ofrecen esa libertad, pero sí a un precio diferente.
Fuente: Shadow. Ya ahora, con una velocidad de conexión estable, un televisor inteligente puede convertirse en una estación de trabajo potente, solo hay que solicitar el hardware necesario. Esto abre posibilidades antes inaccesibles para muchos, aunque toda la responsabilidad por la calidad y la continuidad del servicio recae en los propietarios de los centros tecnológicos, quienes a su vez pueden priorizar clientes más importantes y aplicar sanciones.
Petrov señaló que los centros de datos garantizan disponibilidad 24/7, alimentación de respaldo, redundancia en conexiones y mantenimiento adecuado.
«Pero en casa o en el trabajo, también puedes guardar algo. Solo que suele ser más caro y menos conveniente», añadió.
Según sus palabras, muchos diseñadores, editores de video, productores y artistas ya están siendo desplazados por la inteligencia artificial. En cierto nivel, deben acudir a aplicaciones de IA especializadas, que el hardware doméstico no puede manejar.
«Mientras las demandas de los LLM crecen exponencialmente, solo se pueden mantener modelos pequeños en teléfonos o en casa. Las versiones profesionales de mayor tamaño requieren otra escala, potencia y velocidad que justamente ofrecen los centros de datos en la nube», explicó Petrov.
Bitcoin vuelve a estar a la cabeza
Todo el sector de TI depende de componentes, pero para la industria de la blockchain, la escasez de microchips representa una amenaza real para la descentralización y la redistribución del poder.
«El aumento de los precios de la memoria es consecuencia de decisiones de empresas comerciales. Los nodos de blockchain no son los únicos afectados; todos los dispositivos con memoria DDR5 — smartphones, PCs, otros — también suben de precio. Esto obliga a que las blockchains sean más inteligentes y eficientes, buscando diferentes caminos y soluciones», opina el cofundador de Hyperfusion.
Destacó la paradoja de la situación actual, en la que las redes PoS enfrentan dificultades:
«Proof-of-Stake ha reducido el consumo energético de la minería, pero ha trasladado la carga del consumo eléctrico a la memoria y los discos para empresas y usuarios. En un contexto donde los componentes se han encarecido entre 3 y 5 veces, las cadenas PoS están en medio de una «tormenta perfecta» de la realidad».
En blockchains como Ethereum y Solana, funciona el principio de «fácil de crear, pero muy costoso de verificar». Dado que en la red hay muchas nodos y las pruebas requieren entre siete y nueve pasos, la barrera de entrada para los validadores de PoS suele ser menor para desplegarse, pero más costosa en gastos operativos.
Requisitos técnicos para los operadores de nodos de Solana. Fuente: Solana Labs. Según Petrov, en Ethereum cada nodo debe mantener en acceso rápido toda la base de datos de cuentas, contratos y saldos. Son decenas de millones de objetos que se actualizan constantemente. Para un funcionamiento rápido, se necesita RAM de alta velocidad y SSD NVMe en configuración RAID.
Los nodos deben procesar cada bloque. En redes con alta frecuencia (Solana — 400 ms, Ethereum — 12 s), se requiere un enorme recurso para verificar firmas y ejecutar transacciones. En estos sistemas, los requisitos para nodos completos en archivos históricos son mucho mayores: en Ethereum, un nodo histórico requiere 128 GB de RAM y desde 12 TB de SSD.
La reducción de la rentabilidad de los validadores por el encarecimiento de componentes crea un nuevo riesgo de centralización en las blockchains. En enero, el número diario de nodos activos en Solana cayó a 800, el nivel más bajo desde 2021. A medida que disminuye el soporte para pequeños operadores, se vuelve más difícil cubrir los costos de votación e infraestructura si no tienen suficiente participación delegada.
Al momento de redactar, el coeficiente de Nakamoto de la red cayó a 19 (en 2023 era 33).
La Fundación Ethereum ya discute iniciativas para reducir la barrera de entrada. En mayo de 2025, Vitalik Buterin propuso la actualización EIP-4444, que reduciría significativamente los requisitos de espacio en disco. Se plantea que los nodos solo mantengan el historial de transacciones de los últimos 36 días, conservando el estado actual de la red y la estructura de árboles de Merkle. Este enfoque permite reducir el volumen de almacenamiento sin afectar la verificación del estado actual del blockchain.
En las nuevas realidades del «cortina de silicio», Bitcoin sigue siendo la «blockchain del pueblo».
«En Bitcoin no hay verificación del estado, soloUTXO, que se pueden cachear fácilmente. La fase de creación de minería PoW requiere granjas ASIC, enormes capacidades energéticas, pero la validación sigue siendo muy ligera. La comprobación del resultado en PoW es extremadamente simple y rápida, esa es su belleza. Pasos en un nodo validador: obtener los datos del bloque, verificar su hash, una o dos operaciones de hash, comparar la meta/dificultad, y todo está claro — sí/no»*, explicó Petrov.
Por estas razones, un nodo completo de Bitcoin puede funcionar incluso en un servidor ligero o en un PC de escritorio, y a veces en nuevas Raspberry Pi con 4–8 GB de RAM. La influencia de la escasez de memoria en los nodos PoW es mínima. Aunque los SSD están en aumento de precio, los volúmenes de hasta 1 TB todavía están disponibles, añadió el especialista.
¿Qué sigue?
Petrov opina que la era del hardware personal no ha terminado. Solo hay diferentes enfoques y soluciones para tareas específicas:
«Me gusta la cita “Cloud is someone else’s computer” — “La nube es simplemente la computadora de otra persona en la red”».
La industria busca rápidamente soluciones a la crisis de microchips desarrollando nuevas tecnologías:
Memoria magnetorresistiva MRAM (Magnetoresistive RAM), que es bastante no volátil. Es aproximadamente 1000 veces más rápida que un SSD y más confiable que la memoria convencional. Para 2026, comenzará a reemplazar la memoria en sistemas críticos (automoción, espacio);
CXL 3.1 (Compute Express Link). Permite a los servidores compartir su memoria RAM a través de la red. Es una salvación para los centros de datos, pero aumenta la dependencia del usuario en la nube.
La crisis actual no es la primera en la historia, pero sí la más estructural. Anteriormente, los chips de memoria enfrentaron desafíos similares:
EE. UU. impuso a Japón un acuerdo que estableció un «techo de precios» para los chips de memoria. Esto llevó a un aumento de los precios de DRAM por tres en un año. Los fabricantes estadounidenses de PC (Commodore, Apple) casi quebraron, y Intel abandonó el mercado de memoria para centrarse en procesadores;
Inundaciones en Tailandia. Se inundaron fábricas de Western Digital, que producía el 40% del HDD mundial. Los precios se dispararon un 190% y no volvieron a la normalidad durante dos años.
El crecimiento exponencial de la IA no permite evaluar con precisión el comportamiento futuro del mercado. Se espera que la puesta en marcha de nuevas capacidades alivie la crisis para 2028, siempre que se mantenga el ritmo actual de desarrollo.
Si los agentes de IA se convierten en la base de la economía, la demanda de chips crecerá más rápido que su producción. En ese escenario, poseer una PC potente será tan elitista como tener un caballo de colección. Pase lo que pase en el futuro, cambie la pasta térmica a tiempo.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Cortina de silicio - ForkLog: criptomonedas, IA, singularidad, futuro
Tarjetas gráficas, memoria RAM, SSD — ¿qué sigue?
La era de abundancia digital, cuando cualquier entusiasta podía montar un servidor casero capaz de competir con las capacidades de una pequeña empresa, está llegando a su fin. La posesión de hardware progresivo propio cada vez adquiere un tono más elitista frente al aumento de los precios de los chips de memoria y la creciente lista de espera para preórdenes.
En el nuevo material de ForkLog, analizamos por qué las tarjetas gráficas se han convertido en un recurso para la industria de la IA, por qué Nvidia ya no favorece a los gamers y por qué los diseñadores freelance deben alquilar potencia en centros de datos en la nube. Pero la principal pregunta que intentamos responder es: ¿cómo afectará la escasez de chips a la descentralización de la blockchain, donde en la mayoría de los casos los SSD y la DRAM juegan un papel clave?
Feudalismo tecnológico o dificultades temporales
Recientemente, según las declaraciones de líderes de la industria de IA y fabricantes de microchips, parece que la era de poseer una PC potente propia está llegando a su fin.
En el ámbito informativo se discute activamente la intervención del fundador de Amazon, Jeff Bezos, en 2024, cuando comparó el uso de PC con un generador eléctrico en tiempos de suministro eléctrico centralizado. Algunos en la comunidad lo consideran un profeta en la situación actual.
Los modelos más recientes de hardware se han convertido en el principal recurso computacional para entrenar y mantener los LLM. La IA está agotando los inventarios de microchips HBM, cuya capacidad antes pertenecía al segmento de consumidores de SSD y memoria RAM. Como resultado del aumento de precios de los componentes, el mercado podría perder en este año toda una categoría de dispositivos económicos.
A principios de febrero, los investigadores de TrendForce aumentaron sus pronósticos sobre el costo de los chips. Esperan un aumento del 90–95% en los contratos de memoria DRAM para usuarios en el primer trimestre de 2026, debido al auge del segmento de IA. La previsión anterior era del 55–60%.
Además, entrenar LLM requiere volúmenes colosales de datos. El sector corporativo ha comprado reservas de SSD de 2 TB o más, con alta resistencia a escrituras. Los fabricantes de chips de silicio, que obtienen mayores ingresos del mantenimiento del sector de IA, planean reorganizar sus capacidades de producción.
A finales de 2025, Micron Technology, líder en la fabricación de microchips de memoria — anteriormente uno de los defensores más activos de mantener el segmento de escritorio — anunció el cierre de su línea de productos para consumidores Crucial. La producción se detendrá en el segundo trimestre de 2026 tras casi 30 años de existencia de la marca.
También planean aumentar la producción de microchips HBM. La compañía invirtió 9,6 mil millones de dólares en la construcción de nuevas capacidades en Hiroshima, Japón.
El 12 de febrero, Samsung Electronics anunció el inicio de entregas de los avanzados chips HBM4 a clientes no especificados. Con ello, la compañía intenta reducir la brecha con los competidores en componentes críticos para los aceleradores de IA de Nvidia, incluyendo SK Hynix.
El mayor fabricante de microchips del mundo se encuentra en una posición difícil: es el principal proveedor de memoria para Nvidia y, al mismo tiempo, líder en el segmento de smartphones y electrónica de consumo. Es importante para la compañía mantener contratos de alta rentabilidad en IA sin perder su posición en la fabricación de gadgets.
En septiembre del año pasado, la dirección de Samsung Semiconductor intentó equilibrar la situación. La compañía confirmó que las líneas de producción de memoria para las tarjetas gráficas de gama alta — GDDR7 — pueden abastecer tanto a gamers y creadores de contenido como a estaciones de trabajo profesionales.
Estas microchips se usan en la flagship de Nvidia para gamers — GeForce RTX 5090. Presentada en enero de 2025, sigue siendo la líder indiscutible, y el precio anunciado hace un año de 1999 dólares no refleja la realidad actual. Al momento de redactar este artículo, las ofertas oscilan entre 4000 y 5000 dólares.
En 2027, planean lanzar fábricas en Shanghái y Wuhan, centrando la producción principalmente en DRAM y NAND, no en HBM, como hacen los líderes del mercado.
El ex CIO/CTO de Bitfury Group y cofundador de Hyperfusion, Alex Petrov, opina que no tiene sentido esperar que los precios bajen, sino que es mejor redistribuir los gastos.
¿Por qué las tarjetas gráficas?
¿Por qué las tarjetas gráficas, que en 2000 permitían jugar Quake III Arena y en 2015 Fallout 4, primero fueron tomadas por la minería PoW y luego absorbidas por la industria de la IA? La respuesta radica en la especificidad de los aceleradores gráficos, que es más fácil de explicar comparándolos con la CPU.
La CPU es un genio capaz de resolver cualquier tarea de programación: escribir poesía, calcular impuestos, gestionar el sistema operativo. Pero sus acciones se realizan de forma secuencial en cada núcleo.
En contraste, la GPU es como una fábrica con miles de trabajadores simples. Cada uno es menos inteligente que un genio, pero pueden actuar simultáneamente.
Para renderizar un cuadro en un juego, hay que calcular el color de millones de píxeles. Esto equivale a la misma cantidad de operaciones matemáticas por segundo. El chip gráfico fue creado para cálculos paralelos.
Una situación similar ocurre en la minería PoW con tarjetas gráficas. La minería es una especie de lotería donde el dispositivo debe buscar millones de veces por segundo un número aleatorio para encontrar el hash correcto. La GPU era perfecta para estos fines, lo que llevó a la primera ola de escasez hasta que Ethereum cambió a PoS en 2022.
Los procesadores gráficos se convirtieron en un hallazgo para la industria de la IA. Los modelos grandes de lenguaje como ChatGPT o Gemini son, en esencia, enormes tablas de números (matrices). Su entrenamiento consiste en multiplicar continuamente estas matrices para ajustar los «pesos» (conexiones entre neuronas).
Resultó que la matemática que crea reflejos en el agua en Cyberpunk 2077 es la misma álgebra lineal que sustenta el entrenamiento de redes neuronales. Pero la IA requiere no solo cálculos potentes, sino también una velocidad de transferencia de datos colosal. La memoria de videojuegos convencional no basta para esto; en su lugar, se ha utilizado la costosa y escasa memoria HBM, que hoy en día es objeto de lucha entre los gigantes tecnológicos.
Nvidia entendió la tendencia a tiempo y, desde la arquitectura Volta, empezó a incluir en sus tarjetas «núcleos tensoriales». Son capaces de multiplicar matrices simultáneamente, diseñados exclusivamente para tareas de IA.
GPU por hora y pérdida de offline
En la situación actual, los próximos dos años, los creadores de contenido, videógrafos, diseñadores, gamers, programadores, arquitectos de IA y todos cuyos trabajos dependen críticamente del hardware potente, tendrán que decidir. ¿Optar por el alquiler de potencia en la nube o pagar mucho más por una actualización de su PC?
Dado el déficit y las listas de espera para componentes específicos, la demanda por suscripción está creciendo, haciendo que los centros de datos en la nube sean más orientados al cliente. Existen empresas que ofrecen acceso flexible a cálculos y GPUs en alquiler, como Lambda Labs, Vast.ai, Hyperfusion, LeaderGPU, Hostkey y otros.
El servicio RunPod ofrece usar la tarjeta de gama alta RTX 5090 por 0,89 dólares la hora.
Petrov señaló que los centros de datos garantizan disponibilidad 24/7, alimentación de respaldo, redundancia en conexiones y mantenimiento adecuado.
Según sus palabras, muchos diseñadores, editores de video, productores y artistas ya están siendo desplazados por la inteligencia artificial. En cierto nivel, deben acudir a aplicaciones de IA especializadas, que el hardware doméstico no puede manejar.
Bitcoin vuelve a estar a la cabeza
Todo el sector de TI depende de componentes, pero para la industria de la blockchain, la escasez de microchips representa una amenaza real para la descentralización y la redistribución del poder.
Destacó la paradoja de la situación actual, en la que las redes PoS enfrentan dificultades:
En blockchains como Ethereum y Solana, funciona el principio de «fácil de crear, pero muy costoso de verificar». Dado que en la red hay muchas nodos y las pruebas requieren entre siete y nueve pasos, la barrera de entrada para los validadores de PoS suele ser menor para desplegarse, pero más costosa en gastos operativos.
Los nodos deben procesar cada bloque. En redes con alta frecuencia (Solana — 400 ms, Ethereum — 12 s), se requiere un enorme recurso para verificar firmas y ejecutar transacciones. En estos sistemas, los requisitos para nodos completos en archivos históricos son mucho mayores: en Ethereum, un nodo histórico requiere 128 GB de RAM y desde 12 TB de SSD.
La reducción de la rentabilidad de los validadores por el encarecimiento de componentes crea un nuevo riesgo de centralización en las blockchains. En enero, el número diario de nodos activos en Solana cayó a 800, el nivel más bajo desde 2021. A medida que disminuye el soporte para pequeños operadores, se vuelve más difícil cubrir los costos de votación e infraestructura si no tienen suficiente participación delegada.
Al momento de redactar, el coeficiente de Nakamoto de la red cayó a 19 (en 2023 era 33).
La Fundación Ethereum ya discute iniciativas para reducir la barrera de entrada. En mayo de 2025, Vitalik Buterin propuso la actualización EIP-4444, que reduciría significativamente los requisitos de espacio en disco. Se plantea que los nodos solo mantengan el historial de transacciones de los últimos 36 días, conservando el estado actual de la red y la estructura de árboles de Merkle. Este enfoque permite reducir el volumen de almacenamiento sin afectar la verificación del estado actual del blockchain.
En las nuevas realidades del «cortina de silicio», Bitcoin sigue siendo la «blockchain del pueblo».
Por estas razones, un nodo completo de Bitcoin puede funcionar incluso en un servidor ligero o en un PC de escritorio, y a veces en nuevas Raspberry Pi con 4–8 GB de RAM. La influencia de la escasez de memoria en los nodos PoW es mínima. Aunque los SSD están en aumento de precio, los volúmenes de hasta 1 TB todavía están disponibles, añadió el especialista.
¿Qué sigue?
Petrov opina que la era del hardware personal no ha terminado. Solo hay diferentes enfoques y soluciones para tareas específicas:
La industria busca rápidamente soluciones a la crisis de microchips desarrollando nuevas tecnologías:
La crisis actual no es la primera en la historia, pero sí la más estructural. Anteriormente, los chips de memoria enfrentaron desafíos similares:
El crecimiento exponencial de la IA no permite evaluar con precisión el comportamiento futuro del mercado. Se espera que la puesta en marcha de nuevas capacidades alivie la crisis para 2028, siempre que se mantenga el ritmo actual de desarrollo.
Si los agentes de IA se convierten en la base de la economía, la demanda de chips crecerá más rápido que su producción. En ese escenario, poseer una PC potente será tan elitista como tener un caballo de colección. Pase lo que pase en el futuro, cambie la pasta térmica a tiempo.