Pinapagana ng
Featured

Sinasabi ng mga eksperto na nagbibigay ng kalamangan ang mga Zk proof sa mga DePIN habang tumataas ang mga pangangailangan sa tiwala sa AI

Ang baseline forecast ng Goldman Sachs na $7.6 trilyon sa capital spending para sa artificial intelligence (AI) ay sa huli nakadepende sa kung gaano katagal mananatiling kapaki-pakinabang ang AI‑specific na silicon. Nangangako ang mga decentralized network ng malalaking pagtitipid sa gastos ngunit patuloy na nakikipagbuno sa mga isyu sa latency, at sinasabi ng mga eksperto na ang pangmatagalang bisa ng mga ito ay nakasalalay sa pagbibigay-priyoridad sa verifiability kaysa sa hilaw na performance.

ISINULAT NI
IBAHAGI
Sinasabi ng mga eksperto na nagbibigay ng kalamangan ang mga Zk proof sa mga DePIN habang tumataas ang mga pangangailangan sa tiwala sa AI

Mga Pangunahing Takeaway

  • Tinataya ng Goldman Sachs ang $7.6 trilyong paggasta pagsapit ng 2031, depende kung tatagal ang mga chip nang higit sa 3 taon.
  • Nagbababala ang mga eksperto mula StealthEX at Cysic na nililimitahan ng DePIN latency ang decentralized AI sa mga batch job kaysa sa live chat.
  • Maaaring punan ng mga onchain firm tulad ng Maple ang $5M hanggang $50M na credit gap para sa mga Tier 2 data center pagsapit ng 2028.

Ang $7.6 Trilyong Baseline

Isang kamakailang ulat ng Goldman Sachs ang naglilipat sa debate mula sa kung umiiral ba ang demand para sa artificial intelligence (AI) tungo sa kung aling mga salik sa supply side ang magtatakda ng aktuwal na gastos ng pagpapalawak. Tinataya ng ulat ang $7.6 trilyon sa AI capital expenditure bilang baseline ngunit binibigyang-diin na ang bilang na ito ay lubhang sensitibo sa mga “swing variable,” kabilang ang kapaki-pakinabang na habang-buhay ng AI silicon.

Itinuturing ang longevity na ito bilang pinakamahalagang salik dahil maaaring gawing lipas ng mabilis na inobasyon ang mga karaniwang chip—na karaniwang tumatagal ng apat hanggang anim na taon—sa loob lang ng tatlong taon, na magpapataas nang husto sa gastos. Sa kabilang banda, ang isang “tiered model” kung saan muling ginagamit ang mas lumang chip para sa mas simpleng gawain, gaya ng inference, ay maaaring magpatatag ng mga gastos.

Ang komplikasyon ng data center at ang elasticity ng compute demand ay iba pang mga variable na malamang makaapekto sa kung gaano karaming kapital ang magagasta sa AI infrastructure sa susunod na limang taon. Ang kakulangan sa kapasidad ng power grid, espesyalisadong labor, at electrical equipment ay nakikita ring mga salik na nagpapahaba sa build-out.

Samantala, isang hiwalay na ulat ang naglalarawan sa nakagugulat na paggastang ito sa imprastraktura bilang pundasyon ng umuusbong na “machine economy.” Sa paradigm na ito, nagiging pangunahing economic actors ang mga AI agent, nagsasagawa ng high-frequency na transaksyon at namamahala ng alokasyon ng mga mapagkukunan nang mag-isa. Ipinapahayag ng mga may-akda ng ulat na ang mga legacy financial system—na may mababagal na settlement cycle at mahihigpit na know your customer (KYC) framework—ay sa ugat ay hindi angkop para sa bilis ng agentic commerce.

Decentralized na Imprastraktura at ang Latency Trade-off

Dahil dito, inilalagay nito ang crypto at mga decentralized protocol bilang mahalagang, permissionless na “economic rails” na kailangan upang mapadali ang pagbabagong ito. Gayunman, nananatiling maingat ang mga skeptiko, nagtatanong kung tunay bang kayang bawasan ng mga decentralized physical infrastructure network (DePIN) ang lumolobong pangangailangan ng AI sa kapital.

Sinabi ni Vadim Taszycki, head of growth sa StealthEX, na bagama’t ang mga decentralized network ay makapagbibigay ng makabuluhang pagtitipid, may mga pisikal itong limitasyon. Habang ang isang decentralized provider tulad ng Akash ay maaaring magpaupa ng H100 GPU sa $1.48 kada oras kumpara sa $12.30 sa Amazon Web Services, ang kapalit ay bilis.

“Magagawa ng malalaking cloud provider ang [mabilis na trabaho] dahil magkatabi ang kanilang mga GPU sa iisang gusali, nakakonekta sa mga espesyal na kable na naglilipat ng data sa loob ng microseconds,” sabi ni Taszycki. Ipinaliwanag niya na ang mga decentralized network, na pinagdurugtong ang mga GPU sa iba’t ibang bansa sa pamamagitan ng pampublikong internet, ay nagdadagdag ng millisecond na pagkaantala. Ang latency na ito ang dahilan kung bakit kompetitibo ang decentralized orchestration para sa mga batch job at fine-tuning ngunit hindi angkop para sa pag-serve ng high-scale, live chatbots kung saan nakasalalay ang karanasan ng user sa halos instant na tugon.

Ikinintal din ni Leo Fan, founder ng Cysic, ang mga pananaw na ito, iginiit na hindi angkop ang decentralized inference para sa mga low-latency na workload. Gayunman, sinabi ni Fan na maling benchmark ang latency para ihambing ang mga decentralized platform at mga hyperscaler tulad ng AWS.

“Ang mahirap na problema ay hindi distributed compute kundi discovery, scheduling, at attestation. Ang wedge ay hindi price-per-token; ito ay verifiability,” sabi ni Fan. Binanggit niya na ang trusted execution environments (TEE) at zero-knowledge (ZK) attestations ay nagpapahintulot sa mga decentralized network na makipagkumpitensya sa mga sektor kung saan mas mahalaga ang tiwala at pag-verify kaysa sa “tail latency.”

Onchain Credit at ang Funding Gap

Lampas sa compute, lumilipat ang pokus sa kung paano pinopondohan ang mga proyektong masinsin sa kapital. Bagama’t maraming kapital ang tradisyunal na private credit, madalas nitong hindi pinapansin ang mas maliliit o hindi standard na deal. Nag-aalok ang onchain credit ng natatanging mga bentahe, gaya ng pagpayag sa mga retail investor na makilahok sa kita ng data center na dati’y nakalaan lamang para sa mga institutional limited partner. Dagdag pa rito, ang mga platform tulad ng Maple at Centrifuge ay maaaring magsyndicate ng mga pautang sa saklaw na $5 milyon hanggang $50 milyon—isang bracket na madalas hindi pinapansin ng mga firm tulad ng Apollo dahil mataas ang underwriting cost kumpara sa mga bayarin.

Sa huli, nagbibigay-daan ang onchain credit sa mga bagong “pay-per-inference” na modelo, kung saan nagbabago-bago ang kita kasabay ng paggamit ng GPU. Mas natural na pumapaloob ang ganitong mga modelo sa tokenized na revenue-share structure kaysa sa mahihigpit na tradisyunal na 20-taong lease.

Sa kabila ng potensiyal na ito, tinutukoy ng mga eksperto ang apat na “gate” na nananatiling sarado para sa institutional adoption: legal enforceability sa mga bankruptcy court, kakulangan ng tamper-evident na oracle infrastructure para sa servicing covenants, regulatory uncertainty para sa bilyong-dolyar na tranche, at hindi standardized na tax at accounting na mga produkto.

Ipinahihiwatig ng consensus ang makatotohanang timeline na 12 hanggang 24 na buwan para sa mga mid-sized syndicated deal na magkaroon ng traction onchain, habang ang majority-onchain mezzanine debt ay malamang tatlo hanggang limang taon pa. Ang mga unang breakthrough ay malamang manggagaling sa mga Tier 2 operator kaysa sa mga industry leader tulad ng Coreweave.

Lumalaki ang Pagkahumaling sa AI Infrastructure habang Nangakong Maglalaan ang Meta ng hanggang $27 Bilyon sa Nebius

Lumalaki ang Pagkahumaling sa AI Infrastructure habang Nangakong Maglalaan ang Meta ng hanggang $27 Bilyon sa Nebius

Tuklasin ang AI arms race ng 2026 habang namumuhunan ang Meta ng 27 bilyong dolyar sa cloud computing power kasama ang Nebius Group. read more.

Basahin ngayon
Mga tag sa kwentong ito