La previsión de referencia de Goldman Sachs, que sitúa el gasto de capital en inteligencia artificial (IA) en 7,6 billones de dólares, depende en última instancia del tiempo que los chips específicos para IA sigan siendo útiles. Las redes descentralizadas prometen importantes ahorros de costes, pero siguen enfrentándose a problemas de latencia, y los expertos sostienen que su viabilidad a largo plazo dependerá de que se dé prioridad a la verificabilidad frente al rendimiento bruto.
Los expertos afirman que las pruebas ZK dan ventaja a los DePIN a medida que aumenta la demanda de confianza en la IA

Puntos clave
- Goldman Sachs prevé un gasto de 7,6 billones de dólares para 2031, dependiendo de si los chips duran más de tres años.
- Los expertos de StealthEX y Cysic advierten de que la latencia de DePIN limita la IA descentralizada a trabajos por lotes en lugar de chat en directo.
- Empresas onchain como Maple podrían cubrir el déficit de crédito de entre 5 y 50 millones de dólares para los centros de datos de nivel 2 para 2028.
La base de referencia de 7,6 billones de dólares
Un informe reciente de Goldman Sachs desplaza el debate de si existe demanda de inteligencia artificial (IA) a qué factores del lado de la oferta determinarán el coste real de la expansión. El informe proyecta 7,6 billones de dólares en gasto de capital en IA como referencia, pero destaca que esta cifra es muy sensible a las «variables de fluctuación», incluida la vida útil del silicio de IA.
Esta longevidad se considera el factor más crítico, ya que la rápida innovación podría hacer que los chips estándar —que suelen durar entre cuatro y seis años— quedaran obsoletos en tres años, lo que provocaría un aumento vertiginoso de los costes. Por el contrario, un «modelo por niveles» en el que los chips más antiguos se reutilicen para tareas más sencillas, como la inferencia, podría estabilizar los costes.
La complejidad de los centros de datos y la elasticidad de la demanda de computación son otras variables que probablemente afectarán a la cantidad de capital que se gastará en infraestructura de IA en los próximos cinco años. La escasez de capacidad de la red eléctrica, de mano de obra especializada y de equipos eléctricos también se considera un factor que alarga la construcción.
Por su parte, otro informe enmarca este asombroso gasto en infraestructura como la piedra angular de una «economía de máquinas» emergente. En este paradigma, los agentes de IA se convierten en los principales actores económicos, ejecutando transacciones de alta frecuencia y gestionando la asignación de recursos de forma independiente. Los autores del informe sostienen que los sistemas financieros tradicionales, caracterizados por ciclos de liquidación lentos y marcos rígidos de «conozca a su cliente» (KYC), están fundamentalmente mal equipados para la velocidad del comercio mediado por agentes.
Infraestructura descentralizada y la disyuntiva de la latencia
En consecuencia, posiciona las criptomonedas y los protocolos descentralizados como los «vías económicas» esenciales y sin permisos necesarias para facilitar este cambio. Sin embargo, los escépticos siguen mostrándose cautelosos y cuestionan si las redes de infraestructura física descentralizada (DePIN) pueden realmente mitigar los crecientes requisitos de capital de la IA.
Vadim Taszycki, director de crecimiento de StealthEX, señala que, si bien las redes descentralizadas pueden ofrecer un ahorro significativo en los costes, se enfrentan a limitaciones físicas. Aunque un proveedor descentralizado como Akash podría alquilar una GPU H100 por 1,48 dólares la hora, en comparación con los 12,30 dólares de Amazon Web Services, la contrapartida es la velocidad. «Los grandes proveedores de nube pueden hacerlo [fast work] porque sus GPU se encuentran una al lado de otra en un mismo edificio, conectadas por cables especiales que transfieren datos en microsegundos», afirmó Taszycki. Explicó que las redes descentralizadas, que conectan GPU de diferentes países a través de la red pública de Internet, añaden milisegundos de retraso. Esta latencia hace que la orquestación descentralizada sea competitiva para trabajos por lotes y ajustes de precisión, pero inadecuada para dar servicio a chatbots en vivo a gran escala, donde la experiencia del usuario depende de respuestas casi instantáneas.
Leo Fan, fundador de Cysic, se hizo eco de estas opiniones, insistiendo en que la inferencia descentralizada no es adecuada para cargas de trabajo de baja latencia. Fan argumentó, sin embargo, que la latencia es un criterio erróneo para comparar plataformas descentralizadas e hiperescaladores como AWS.
«El verdadero problema no es la computación distribuida, sino el descubrimiento, la programación y la certificación. La diferencia no está en el precio por token, sino en la verificabilidad», afirmó Fan. Señaló que los entornos de ejecución confiables (TEE) y las certificaciones de conocimiento cero (ZK) permiten a las redes descentralizadas competir en sectores donde la confianza y la verificación importan más que la «latencia residual».
El crédito en cadena y la brecha de financiación
Más allá de la computación, la atención se está desplazando hacia cómo se financian estos proyectos intensivos en capital. Si bien el crédito privado tradicional cuenta con amplio capital, a menudo pasa por alto las operaciones más pequeñas o no estándar. El crédito en cadena ofrece ventajas distintivas, como permitir a los inversores minoristas participar en los ingresos de los centros de datos, algo que antes estaba restringido a los socios comanditarios institucionales. Además, plataformas como Maple y Centrifuge pueden sindicar préstamos en el rango de 5 a 50 millones de dólares, un tramo que a menudo ignoran empresas como Apollo debido a los elevados costes de suscripción en relación con las comisiones. Por último, el crédito en cadena permite nuevos modelos de «pago por inferencia», en los que los ingresos fluctúan con el uso de las GPU. Estos modelos encajan de forma más natural en estructuras tokenizadas de reparto de ingresos que los rígidos arrendamientos tradicionales a 20 años.
A pesar de este potencial, los expertos identifican cuatro «barreras» que siguen cerradas a la adopción institucional: la exigibilidad legal en los tribunales de quiebras, la falta de una infraestructura de oráculos a prueba de manipulaciones para el cumplimiento de los convenios, la incertidumbre regulatoria para los tramos de miles de millones de dólares y los productos fiscales y contables no estandarizados.
El consenso sugiere un plazo realista de entre 12 y 24 meses para que las operaciones sindicadas de tamaño medio ganen tracción en la cadena de bloques, mientras que la deuda mezzanine mayoritariamente en cadena probablemente tardará entre tres y cinco años en llegar. Es probable que los primeros avances provengan de operadores de segundo nivel, más que de líderes del sector como Coreweave.

Aumenta el frenesí por las infraestructuras de IA tras el compromiso de Meta de invertir hasta 27 000 millones de dólares en Nebius
Descubre la carrera armamentística en materia de IA de 2026, en la que Meta invierte 27 000 millones de dólares en potencia de computación en la nube junto con Nebius Group. read more.
Leer ahora
Aumenta el frenesí por las infraestructuras de IA tras el compromiso de Meta de invertir hasta 27 000 millones de dólares en Nebius
Descubre la carrera armamentística en materia de IA de 2026, en la que Meta invierte 27 000 millones de dólares en potencia de computación en la nube junto con Nebius Group. read more.
Leer ahora
Aumenta el frenesí por las infraestructuras de IA tras el compromiso de Meta de invertir hasta 27 000 millones de dólares en Nebius
Leer ahoraDescubre la carrera armamentística en materia de IA de 2026, en la que Meta invierte 27 000 millones de dólares en potencia de computación en la nube junto con Nebius Group. read more.















