Provozuje
Interview

Decentralizovaná umělá inteligence by mohla odemknout společnost bez nedostatku, říká generální ředitel 0G Labs

Diskuse o umělé inteligenci se vyvinula od otázky jejího významu k zaměření na její spolehlivost a efektivitu, jak se její použití stává rozšířeným. Michael Heinrich si představuje budoucnost, kde umělá inteligence podporuje post-scarcity společnost, osvobozuje jednotlivce od rutinních prací a umožňuje jim věnovat se kreativnějším činnostem.

SDÍLET
Decentralizovaná umělá inteligence by mohla odemknout společnost bez nedostatku, říká generální ředitel 0G Labs

Data Dilema: Kvalita, Provenience a Důvěra

Diskuse o umělé inteligenci (AI) se zásadně změnila. Otázka již není o jejím významu, ale jak ji učinit spolehlivější, transparentnější a efektivnější, jak se její nasazení stává běžným v každém sektoru.

Současný AI paradigma, ovládané centralizovanými “černými skříňkami” a obrovskými, proprietárními datovými centry, čelí rostoucímu tlaku z obav o bias a monopolistickou kontrolu. Pro mnoho lidí v prostoru Web3 leží řešení ne v přísnější regulaci současného systému, ale v kompletní decentralizaci základní infrastruktury.

Účinnost těchto výkonných AI modelů, například, je určována především kvalitou a integritou dat, na kterých jsou trénovány – faktor, který musí být ověřitelný a sledovatelný, aby se zabránilo systémovým chybám a AI halucinacím. Jak roste význam pro odvětví jako financí a zdravotnictví, potřeba bezvýhradného a transparentního základu pro AI se stává kritickou.

Michael Heinrich, sériový podnikatel a absolvent Stanfordu, je mezi těmi, kdo vedou snahy o vybudování tohoto základu. Jako CEO 0G Labs momentálně vyvíjí to, co popisuje jako první a největší AI řetězec, s cílem zajistit, aby se umělá inteligence stala bezpečným a ověřitelným veřejným dobrem. Poté, co dříve založil Garten, společnost podpořenou YCombinatorem, a pracoval v Microsoftu, Bain a Bridgewater Associates, Heinrich nyní aplikuje své odborné znalosti na architektonické výzvy decentralizované AI (DeAI).

Heinrich zdůrazňuje, že jádro výkonu AI spočívá v jeho znalostní bázi: data. “Účinnost AI modelů je určována především základními daty, na kterých jsou trénovány,” vysvětluje. Vysoce kvalitní, vyvážené datové sady vedou k přesným odpovědím, ale špatná nebo nedostatečně zastoupená data mají za následek nekvalitní výstupy a zvýšenou náchylnost k halucinacím.

Pro Heinricha, udržení integrity těchto neustále se aktualizujících a různorodých datových sad vyžaduje radikální odklon od status quo. Tvrdí, že hlavním viníkem AI halucinací je nedostatek transparentní provenience. Jeho lék je kryptografický:

Věřím, že všechna data by měla být ukotvena na řetězci s kryptografickými důkazy a ověřitelnou evidenční stopou k udržení integrity dat.

Tento decentralizovaný, transparentní základ, kombinovaný s ekonomickými pobídkami a průběžným laděním, je vnímán jako nezbytný mechanismus k systematickému eliminování chyb a algoritmických předsudků.

Nad rámec technických oprav má Heinrich, oceněný v žebříčku Forbes 40 Under 40, makro vizi pro AI, když věří, že by měla přinést éru hojnosti.

“V ideálním světě to snad vytvoří podmínky pro společnost po nedostatku, kde se zdroje stanou hojnějšími a nikdo se nebude muset obávat vykonávání rutinních prací,” uvádí. Tento posun by umožnil jednotlivcům “soustředit se na více kreativní a volnočinné práce,” čímž by de facto umožnil každému mít více volného času a ekonomické jistoty.

Klíčově tvrdí, že decentralizovaný svět je jedinečně způsobilý k tomu, aby tuto budoucnost poháněl. Krása těchto systémů spočívá v tom, že jsou pobídky-sladěné, vytvářejí samovyvažující ekonomiku pro výpočetní výkon. Pokud poptávka po zdrojích stoupá, pobídky k jejich dodání přirozeně rostou, dokud není tato poptávka splněna, čímž splňují potřebu výpočetních zdrojů vyváženým, bezvýhradným způsobem.

Ochrana AI: Open Source a Design Pobídek

K ochraně AI před úmyslným zneužitím – jako jsou falešné hlasové nahrávky nebo deepfakes – Heinrich navrhuje kombinaci řešení zaměřených na lidský faktor a architekturu. Nejprve by měl být důraz kladen na vzdělávání lidí, jak rozpoznat AI podvody a falešné informace používané k impersonaci a dezinformaci. Heinrich uvádí: Musíme lidi naučit, jak identifikovat nebo otiskovat AI-generovaný obsah, aby se mohli chránit.”

Zákonodárci mohou také hrát roli zavedením globálních standardů pro bezpečnost a etiku AI. I když to pravděpodobně nevyloučí zneužití AI, přítomnost takových standardů “může do určité míry pomoci odradit zneužití.” Nejúčinnější protiopatření je však zabudováno do decentralizovaného designu: “Návrh pobídkově-sladěných systémů by mohl dramaticky snížit úmyslné zneužití AI.” Nasazením a spravováním AI modelů na řetězec je čestná participace odměněna, zatímco zlovolné chování přináší přímé finanční důsledky prostřednictvím mechanismů slashing na řetězec.

I když se někteří kritici obávají rizik otevřených algoritmů, Heinrich Bitcoin.com News nadšeně podporuje, protože to poskytuje transparentnost do způsobu, jakým modely fungují. “Věci jako ověřitelné tréninkové záznamy a neměnné datové stopy mohou být použity k zajištění transparentnosti a umožnění komunitního dohledu,” což přímo reaguje na rizika spojená s proprietárními, uzavřenými “černými skříňkami.”

Aby byla tato vize bezpečné a levné AI budoucnosti dosažena, 0G Labs buduje první “decentralizovaný AI operační systém (DeAIOS).”

Tento operační systém je navržen tak, aby poskytoval ověřitelnou provenienci AI – vysoce škálovatelnou vrstvu úložiště a dostupnosti dat, která umožňuje ukládání rozsáhlých AI datových sad na řetězec, což činí všechna data ověřitelnými a trasovatelnými. Tato úroveň bezpečnosti a sledovatelnosti je nezbytná pro AI agenty operující v regulovaných sektorech.

Kromě toho systém nabízí bezvýhradní tržiště výpočetních zdrojů, které demokratizuje přístup k výpočetním prostředkům za konkurenční ceny. To je přímá odpověď na vysoké náklady a uzamčení dodavatelů spojené s centralizovanou cloudovou infrastrukturou.

0G Labs již prokázal technický průlom s Dilocox, rámcem, který umožňuje trénink LLM přesahujících 100 miliard parametrů přes decentralizované, 1 Gbps klastery. Tím, že rozděluje modely na menší a nezávisle trénované části, Dilocox ukázal 357x zlepšení efektivity ve srovnání s tradičními distribuovanými tréninkovými metodami, čímž činí velkoobjemový vývoj AI ekonomicky životaschopným mimo zdi centralizovaných datových center.

Jasnější a Cenově Dostupnější Budoucnost pro AI

Heinrich nakonec vidí velmi světlou budoucnost pro decentralizovanou AI, definovanou účastí a odbouráváním bariér pro přijetí.

“Je to místo, kde lidé a komunity společně vytvářejí expertní AI modely, čímž zajišťují, že budoucnost AI je formována mnoha, a ne jen hrstkou centralizovaných entit,” uzavírá. S proprietárními AI společnostmi čelícími tlaku na zvyšování cen, DeAI ekonomika a pobídkové struktury nabízejí přesvědčivou, mnohem cenově dostupnější alternativu, kde lze vytvářet výkonné AI modely s nižšími náklady, čímž se otevírá cesta pro otevřenější, bezpečnější a nakonec prospěšnější technologickou budoucnost.

FAQ

  • Co je základní problém současné centralizované AI? Současné AI modely trpí transparentnostními problémy, datovým biasem a monopolistickou kontrolou kvůli jejich centralizované “černé skříňce” architektura.
  • Jaké řešení vyvíjí Michael Heinrich s 0G Labs? 0G Labs vyvíjí první “decentralizovaný AI operační systém (DeAIOS)” s cílem učinit AI bezpečným, ověřitelným a veřejným dobrem.
  • Jak decentralizovaná AI zajišťuje integritu dat? Integrita dat je udržována ukotvením všech dat na řetězci s kryptografickými důkazy a ověřitelnou evidenční stopou, aby se zabránilo chybám a halucinacím.
  • Jaká je hlavní výhoda technologie 0G Labs Dilocox? Dilocox je rámec, který činí velkoobjemový vývoj AI významně efektivnějším a prokázal 357x zlepšení oproti tradičnímu distribuovanému tréninku.