Nvidia planea instalar 25 mini centros de datos junto a subestaciones
Donate

Nvidia planea instalar 25 mini centros de datos junto a subestaciones

Nvidia tiene un plan para resolver el agotamiento energético que la IA provoca en Estados Unidos. La compañía quiere instalar cerca de 25 mini data centers junto a subestaciones eléctricas locales. La solución de Nvidia al problema energético de la IA son mini data centers junto a subestaciones eléctricas locales y, por supuesto, vender aún más GPUs

La solución de Nvidia al problema energético de la IA: mini data centers distribuidos

¿Sabías esto?

Mantente al día con las últimas novedades en oldschoolclub.gg.

La iniciativa busca aprovechar pequeños sobrantes de capacidad eléctrica que las grandes instalaciones no pueden usar. Marc Spieler, director senior de energía de Nvidia, explica que cada subestación podría ofrecer entre 5 y 20 megawatts. Con 55,000 subestaciones en todo el país, esos fragmentos suman una cantidad considerable de energía disponible.

El piloto comenzará más adelante este año. No se trata de reducir el consumo total ni de evitar pérdidas en cables. La estrategia es puro balanceo de carga, equilibrar la carga entre diferentes puntos de la red. Cuando una subestación tiene demanda baja, Nvidia activa sus GPUs allí. Cuando otra está saturada, reduce operaciones.

Dato curioso

El Electric Power Research Institute (EPRI) predice que los data centers consumirán hasta el 17% de toda la electricidad generada en Estados Unidos para 2030. Eso es más del doble del nivel actual.

El lado cínico del plan de Nvidia

La fuente señala algo que muchos sospechan. La redundancia entre múltiples sitios pequeños obliga a Nvidia a fabricar y vender más GPUs. Una sola mega instalación necesitaría menos hardware total. Este modelo distribuido, en cambio, multiplica la cantidad de chips requeridos.

La lectura es clara: la solución energética de Nvidia también es una excusa para mover más producto. La compañía no oculta que su negocio central sigue siendo vender GPUs. El problema del suministro eléctrico se convierte en otra oportunidad de crecimiento.

Esta dinámica no es nueva en la industria tech. Las grandes firmas suelen presentar soluciones que expanden su mercado objetivo. Lo particular aquí es la transparencia casi descarada. El propio Spieler habla de vender más GPUs como parte natural de la estrategia.

Qué significa para el futuro de la IA y los gamers

Para el público hispanohablante, este proyecto tiene implicaciones indirectas pero reales. La escena de streaming y eSports en español depende de infraestructura de IA para herramientas de producción, moderación y recomendación de contenido. Si el consumo energético de la IA sigue escalando, los costos de operación subirán. Eso puede afectar plataformas como Twitch, YouTube y servicios emergentes que usan muchos creadores de habla hispana.

El plan de mini data centers podría replicarse en otros países con redes eléctricas similares. España y México, por ejemplo, también enfrentan tensiones en su red por el crecimiento de centros de datos. Aunque Nvidia no ha anunciado expansiones fuera de Estados Unidos, el modelo es técnicamente exportable.

Los gamers directamente sentirán el impacto en precios y disponibilidad. Más GPUs vendidas para centros de datos significa menos unidades para el mercado de consumo. La escasez de la serie RTX 4000 ya mostró cómo la demanda de IA afecta a quienes solo quieren jugar.

El panorama para 2026 y 2027 apunta a una competencia más feroz por cada GPU producida. Nvidia diversifica sus líneas con chips específicos para IA, pero la fabricación comparte fábricas y materiales. Los jugadores de PC probablemente seguirán pagando primas por hardware de gama alta.

¡Tu turno de jugar!

Elige tu reacción o deja tu comentario, en Old School Club tu voz cuenta.

Entérate de todo