Goldman Sachs grundprognos på 7,6 biljoner dollar i investeringar inom artificiell intelligens (AI) beror i slutändan på hur länge AI-specifik hårdvara förblir användbar. Decentraliserade nätverk lovar stora kostnadsbesparingar men kämpar fortfarande med fördröjningsproblem, och experter hävdar att deras långsiktiga livskraft kommer att bero på att verifierbarhet prioriteras framför ren prestanda.
Experter menar att ZK-bevis ger DePIN-lösningar en fördel i takt med att efterfrågan på tillförlitlig AI ökar

Viktiga slutsatser
- Goldman Sachs uppskattar att utgifterna kommer att uppgå till 7,6 biljoner dollar fram till 2031, beroende på om chipen håller i mer än tre år.
- Experter från StealthEX och Cysic varnar för att DePIN-latensen begränsar decentraliserad AI till batchjobb istället för livechatt.
- Onchain-företag som Maple kan överbrygga kreditgapet på 5–50 miljoner dollar för Tier 2-datacenter fram till 2028.
Baslinjen på 7,6 biljoner dollar
En färsk rapport från Goldman Sachs flyttar debatten från frågan om det finns en efterfrågan på artificiell intelligens (AI) till vilka faktorer på utbudssidan som kommer att avgöra den faktiska kostnaden för utbyggnaden. Rapporten prognostiserar 7,6 biljoner dollar i AI-investeringar som basnivå, men betonar att denna siffra är mycket känslig för ”svängningsvariabler”, inklusive AI-kretsarnas livslängd.
Denna livslängd ses som den mest kritiska faktorn eftersom snabb innovation kan göra standardchips – som vanligtvis håller i fyra till sex år – föråldrade på tre år, vilket får kostnaderna att skjuta i höjden. Omvänt skulle en ”nivåindelad modell” där äldre chips återanvänds för enklare uppgifter, såsom inferens, kunna stabilisera kostnaderna.
Datacentrets komplexitet och elasticiteten i efterfrågan på datorkraft är andra variabler som sannolikt kommer att påverka hur mycket kapital som spenderas på AI-infrastruktur under de kommande fem åren. Brist på kapacitet i elnätet, specialiserad arbetskraft och elektrisk utrustning ses också som faktorer som förlänger utbyggnaden.
En separat rapport beskriver samtidigt dessa enorma infrastrukturutgifter som hörnstenen i en framväxande ”maskinekonomi”. I detta paradigm blir AI-agenter de primära ekonomiska aktörerna, som utför högfrekventa transaktioner och hanterar resursallokering självständigt. Rapportens författare hävdar att äldre finansiella system, som kännetecknas av långsamma avvecklingscykler och rigida ramverk för kundkännedom (KYC), i grunden är dåligt rustade för hastigheten i agentbaserad handel.
Decentraliserad infrastruktur och avvägningen mellan hastighet och latens
Följaktligen positionerar rapporten krypto och decentraliserade protokoll som de väsentliga, tillståndsfria ”ekonomiska rälsen” som krävs för att underlätta denna omställning. Skeptikerna förblir dock försiktiga och ifrågasätter om decentraliserade fysiska infrastrukturnätverk (DePIN) verkligen kan mildra AI:s exploderande kapitalbehov.
Vadim Taszycki, tillväxtchef på StealthEX, påpekar att även om decentraliserade nätverk kan erbjuda betydande kostnadsbesparingar, står de inför fysiska begränsningar. Medan en decentraliserad leverantör som Akash kanske hyr en H100-GPU för 1,48 dollar i timmen jämfört med 12,30 dollar på Amazon Web Services, är avvägningen hastigheten.
"De stora molnleverantörerna kan göra det [fast work] eftersom deras GPU:er sitter bredvid varandra i en och samma byggnad, anslutna med specialkablar som överför data på mikrosekunder”, sa Taszycki. Han förklarade att decentraliserade nätverk, som kopplar samman GPU:er i olika länder via det offentliga internet, tillför fördröjningar på millisekunder. Denna latens gör decentraliserad orkestrering konkurrenskraftig för batchjobb och finjustering, men olämplig för att driva storskaliga, live-chattbotar där användarupplevelsen är beroende av nästan omedelbara svar.
Leo Fan, grundare av Cysic, instämde i dessa åsikter och insisterade på att decentraliserad inferens är olämplig för arbetsbelastningar med låg latens. Fan hävdade dock att latens är fel måttstock för att jämföra decentraliserade plattformar och hyperscalers som AWS.
”Det svåra problemet är inte distribuerad databehandling utan upptäckt, schemaläggning och attestering. Skillnaden ligger inte i priset per token, utan i verifierbarheten”, sa Fan. Han påpekade att betrodda exekveringsmiljöer (TEE) och nollkunskapsattesteringar (ZK) gör det möjligt för decentraliserade nätverk att konkurrera i sektorer där förtroende och verifiering är viktigare än ”svansfördröjning”.
Onchain-kredit och finansieringsgapet
Utöver databehandling skiftar fokus till hur dessa kapitalintensiva projekt finansieras. Även om traditionell privat kredit har gott om kapital, förbiser den ofta mindre eller icke-standardiserade affärer. Onchain-kredit erbjuder tydliga fördelar, såsom att tillåta icke-professionella investerare att delta i datacentrets intäkter som tidigare var begränsade till institutionella kommanditdelägare. Dessutom kan plattformar som Maple och Centrifuge syndikera lån i intervallet 5 till 50 miljoner dollar – ett intervall som ofta ignoreras av företag som Apollo på grund av höga emissionskostnader i förhållande till avgifterna.
Slutligen möjliggör onchain-krediter nya ”pay-per-inference”-modeller, där intäkterna fluktuerar med GPU-användningen. Sådana modeller passar mer naturligt in i tokeniserade intäktsdelningsstrukturer än i rigida traditionella 20-åriga leasingavtal.
Trots denna potential identifierar experter fyra ”hinder” som fortfarande står i vägen för institutionell adoption: rättslig verkställbarhet i konkursdomstolar, bristen på manipuleringssäker orakelinfrastruktur för att hantera avtalsvillkor, regleringsosäkerhet för trancher på miljarder dollar samt icke-standardiserade skatte- och redovisningsprodukter.
Konsensusen pekar på en realistisk tidsram på 12 till 24 månader för att medelstora syndikerade affärer ska få fart på kedjan, medan mezzanine-skuld med majoritet på kedjan sannolikt ligger tre till fem år bort. De första genombrotten kommer sannolikt att komma från Tier 2-operatörer snarare än branschledare som Coreweave.

Hajpen kring AI-infrastruktur växer i takt med att Meta satsar upp till 27 miljarder dollar på Nebius
Följ med i AI-kapprustningen 2026 när Meta investerar 27 miljarder dollar i molnbaserad datorkraft tillsammans med Nebius Group. read more.
Läs nu
Hajpen kring AI-infrastruktur växer i takt med att Meta satsar upp till 27 miljarder dollar på Nebius
Följ med i AI-kapprustningen 2026 när Meta investerar 27 miljarder dollar i molnbaserad datorkraft tillsammans med Nebius Group. read more.
Läs nu
Hajpen kring AI-infrastruktur växer i takt med att Meta satsar upp till 27 miljarder dollar på Nebius
Läs nuFölj med i AI-kapprustningen 2026 när Meta investerar 27 miljarder dollar i molnbaserad datorkraft tillsammans med Nebius Group. read more.















