Obsługiwane przez
Featured

Eksperci twierdzą, że dowody ZK zapewniają DePIN-om przewagę w obliczu rosnących wymagań dotyczących zaufania do sztucznej inteligencji

Podstawowa prognoza Goldman Sachs, zakładająca nakłady inwestycyjne na sztuczną inteligencję (AI) w wysokości 7,6 biliona dolarów, zależy ostatecznie od tego, jak długo układy scalone przeznaczone specjalnie dla AI będą się nadawać do użytku. Sieci zdecentralizowane obiecują znaczną oszczędność kosztów, ale wciąż borykają się z problemami związanymi z opóźnieniami, a eksperci twierdzą, że ich długoterminowa rentowność będzie zależała od tego, czy priorytetem będzie weryfikowalność, a nie sama wydajność.

UDOSTĘPNIJ
Eksperci twierdzą, że dowody ZK zapewniają DePIN-om przewagę w obliczu rosnących wymagań dotyczących zaufania do sztucznej inteligencji

Najważniejsze wnioski

  • Goldman Sachs szacuje, że do 2031 r. wydatki wyniosą 7,6 bln dolarów, w zależności od tego, czy chipy będą działać dłużej niż 3 lata.
  • Eksperci ze StealthEX i Cysic ostrzegają, że opóźnienia DePIN ograniczają zdecentralizowaną sztuczną inteligencję do zadań wsadowych w czacie na żywo.
  • Firmy działające w łańcuchu bloków, takie jak Maple, mogą wypełnić lukę kredytową wynoszącą od 5 do 50 mln dolarów dla centrów danych poziomu 2 do 2028 r.

7,6 biliona dolarów jako punkt odniesienia

Najnowszy raport Goldman Sachs przenosi debatę z kwestii istnienia popytu na sztuczną inteligencję (AI) na czynniki po stronie podaży, które będą decydować o rzeczywistych kosztach rozbudowy. Raport przewiduje 7,6 biliona dolarów nakładów kapitałowych na AI jako punkt odniesienia, ale podkreśla, że liczba ta jest bardzo wrażliwa na „zmienne wahania”, w tym okres użytkowania układów scalonych AI.

Trwałość ta jest postrzegana jako najważniejszy czynnik, ponieważ szybkie tempo innowacji może sprawić, że standardowe układy scalone — które zazwyczaj działają od czterech do sześciu lat — staną się przestarzałe już po trzech latach, powodując gwałtowny wzrost kosztów. Z drugiej strony „model warstwowy”, w którym starsze układy scalone są ponownie wykorzystywane do prostszych zadań, takich jak wnioskowanie, mógłby ustabilizować koszty.

Złożoność centrów danych i elastyczność zapotrzebowania na moc obliczeniową to kolejne zmienne, które mogą wpłynąć na to, ile kapitału zostanie wydane na infrastrukturę AI w ciągu najbliższych pięciu lat. Niedobory mocy sieci energetycznej, wyspecjalizowanej siły roboczej i sprzętu elektrycznego są również postrzegane jako czynniki wydłużające proces rozbudowy.

Tymczasem w innym raporcie te oszałamiające wydatki na infrastrukturę przedstawiono jako kamień węgielny powstającej „gospodarki maszynowej”. W tym paradygmacie agenci AI stają się głównymi podmiotami gospodarczymi, wykonującymi transakcje o wysokiej częstotliwości i samodzielnie zarządzającymi alokacją zasobów. Autorzy raportu twierdzą, że starsze systemy finansowe, charakteryzujące się powolnymi cyklami rozliczeniowymi i sztywnymi ramami „poznaj swojego klienta” (KYC), są zasadniczo nieprzygotowane do tempa handlu prowadzonego przez agentów.

Infrastruktura zdecentralizowana a kompromis związany z opóźnieniami

W konsekwencji kryptowaluty i zdecentralizowane protokoły są przedstawiane jako niezbędne, niewymagające zezwoleń „ekonomiczne szyny”, niezbędne do ułatwienia tej zmiany. Jednak sceptycy pozostają ostrożni, kwestionując, czy zdecentralizowane sieci infrastruktury fizycznej (DePIN) mogą naprawdę złagodzić rosnące wymagania kapitałowe sztucznej inteligencji.

Vadim Taszycki, dyrektor ds. rozwoju w StealthEX, zauważa, że chociaż sieci zdecentralizowane mogą zapewnić znaczne oszczędności, borykają się one z ograniczeniami fizycznymi. Podczas gdy zdecentralizowany dostawca, taki jak Akash, może wynająć procesor graficzny H100 za 1,48 dolara za godzinę w porównaniu z 12,30 dolarów w Amazon Web Services, kompromisem jest prędkość.
„Duzi dostawcy chmury mogą to robić, [fast work] ponieważ ich procesory graficzne znajdują się obok siebie w jednym budynku, połączone specjalnymi kablami, które przesyłają dane w mikrosekundach” – powiedział Taszycki. Wyjaśnił, że sieci zdecentralizowane, które łączą procesory graficzne w różnych krajach za pośrednictwem publicznego internetu, powodują opóźnienia rzędu milisekund. To opóźnienie sprawia, że zdecentralizowana koordynacja jest konkurencyjna w przypadku zadań wsadowych i precyzyjnego dostrajania, ale nie nadaje się do obsługi chatbotów na dużą skalę działających w czasie rzeczywistym, gdzie wrażenia użytkownika zależą od niemal natychmiastowych odpowiedzi.

Leo Fan, założyciel Cysic, podzielił te opinie, podkreślając, że zdecentralizowane wnioskowanie nie nadaje się do zadań wymagających niskiego opóźnienia. Fan argumentował jednak, że opóźnienie jest niewłaściwym kryterium porównawczym dla platform zdecentralizowanych i hiper-skalerów, takich jak AWS.

„Trudnym problemem nie jest przetwarzanie rozproszone, ale wykrywanie, planowanie i poświadczanie. Kluczową kwestią nie jest cena za token, ale weryfikowalność” – powiedział Fan. Zauważył, że zaufane środowiska wykonawcze (TEE) i poświadczenia typu zero-knowledge (ZK) pozwalają sieciom zdecentralizowanym konkurować w sektorach, w których zaufanie i weryfikacja mają większe znaczenie niż „opóźnienie ogona”.

Kredyt w łańcuchu bloków a luka finansowa

Poza mocą obliczeniową uwaga przenosi się na sposób finansowania tych kapitałochłonnych projektów. Chociaż tradycyjny kredyt prywatny dysponuje znacznym kapitałem, często pomija mniejsze lub niestandardowe transakcje. Kredyt on-chain oferuje wyraźne korzyści, takie jak umożliwienie inwestorom detalicznym udziału w przychodach centrów danych, które wcześniej były zarezerwowane dla instytucjonalnych partnerów ograniczonych. Ponadto platformy takie jak Maple i Centrifuge mogą konsolidować pożyczki w przedziale od 5 do 50 milionów dolarów — przedział ten jest często pomijany przez firmy takie jak Apollo ze względu na wysokie koszty gwarancji w stosunku do opłat.

Wreszcie, kredyt on-chain umożliwia nowatorskie modele „pay-per-inference”, w których przychody zmieniają się wraz z wykorzystaniem procesorów graficznych (GPU). Modele takie bardziej naturalnie wpisują się w tokenizowane struktury podziału przychodów niż sztywne, tradycyjne umowy najmu na 20 lat.

Pomimo tego potencjału eksperci wskazują cztery „bariery”, które pozostają zamknięte dla wdrożenia instytucjonalnego: egzekwowalność prawna w sądach upadłościowych, brak infrastruktury oracle zabezpieczonej przed manipulacją do obsługi umów, niepewność regulacyjna dotycząca transz o wartości miliardów dolarów oraz nieustandaryzowane produkty podatkowe i księgowe.

Konsensus sugeruje realistyczny harmonogram od 12 do 24 miesięcy, w którym średniej wielkości transakcje konsorcjalne zyskają popularność w łańcuchu bloków, a dług mezzanine w większości w łańcuchu bloków pojawi się prawdopodobnie za trzy do pięciu lat. Pierwsze przełomy prawdopodobnie nastąpią raczej ze strony operatorów drugiego poziomu niż liderów branży, takich jak Coreweave.

Szał związany z infrastrukturą AI narasta, a Meta przeznacza nawet 27 miliardów dolarów na Nebius

Szał związany z infrastrukturą AI narasta, a Meta przeznacza nawet 27 miliardów dolarów na Nebius

Zapoznaj się z wyścigiem zbrojeń w dziedzinie sztucznej inteligencji w 2026 roku – firma Meta zainwestowała 27 miliardów dolarów w moc obliczeniową w chmurze we współpracy z Nebius Group. read more.

Czytaj teraz
Tagi w tym artykule