Pogovor o AI se je razvil od vprašanja o njegovi pomembnosti do osredotočanja na to, kako ga narediti bolj zanesljivega in učinkovitega, saj njegova uporaba postaja razširjena. Michael Heinrich si predstavlja prihodnost, kjer AI spodbuja družbo po pomanjkanju, osvobaja posameznike vsakdanjih del in omogoča bolj ustvarjalna prizadevanja.
Decentralizirana umetna inteligenca bi lahko odklenila družbo brez pomanjkanja, pravi izvršni direktor 0G Labs.

Podatkovna dilema: Kakovost, izvornost in zaupanje
Razprava o umetni inteligenci (AI) se je bistveno spremenila. Vprašanje ni več o njegovi pomembnosti, temveč kako jo narediti bolj zanesljivo, pregledno in učinkovito, saj postaja njena uporaba povsod običajna praksa.
Trenutni AI paradigma, ki jo obvladujejo centralizirani “črni škatli” modeli in masivni, lastniški podatkovni centri, se sooča s pritiskom zaradi skrbi glede pristranskosti in monopolističnega nadzora. Za mnoge v prostoru Web3 rešitev ne leži v strožji regulaciji trenutnega sistema, temveč v popolni decentralizaciji osnovne infrastrukture.
Učinkovitost teh močnih AI modelov je na primer v prvi vrsti določena s kakovostjo in integriteto podatkov, na katerih so usposobljeni – faktor, ki mora biti preverljiv in sledljiv, da preprečimo sistemske napake in AI halucinacije. Ko se tveganja povečujejo za industrije, kot sta finance in zdravstvo, postaja potreba po zaupanja vredni in pregledni osnovi za AI ključna.
Michael Heinrich, serijski podjetnik in diplomant Stanforda, je med tistimi, ki vodijo pobudo za izgradnjo te osnove. Kot CEO podjetja 0G Labs trenutno razvija tisto, kar opisuje kot prvo in največjo AI verigo, z zastavljenim ciljem, da AI postane varno in preverljivo javno dobro. Potem ko je pred tem ustanovil Garten, vrhunsko podjetje podprto s strani YCombinator, in delal pri Microsoft, Bain in Bridgewater Associates, Heinrich zdaj uporablja svoje strokovno znanje za arhitekturne izzive decentralizirane AI (DeAI).
Heinrich poudarja, da je jedro predstavnosti AI v njegovi bazi znanja: podatki. “Učinkovitost AI modelov je v prvi vrsti določena z osnovnimi podatki, na katerih so usposobljeni,” pojasnjuje. Visokokakovostni, uravnoteženi podatkovni nizi vodijo do točnih odgovorov, medtem ko slabi ali premalo zastopani podatki povzročajo slabo kakovost izhoda in povečano dovzetnost za halucinacije.
Za Heinricha vzdrževanje integritete teh nenehno posodabljajočih in raznolikih naborov podatkov zahteva radikalni odmik od statusa quo. Trdi, da je primarni krivec za AI halucinacije pomanjkanje pregledne izvornosti. Njegova rešitev je kriptografska:
Verjamem, da bi morali biti vsi podatki zasidraani na verigi z kriptografskimi dokazi in s sledivostjo dokazov za ohranjanje integritete podatkov.
Ta decentralizirana, pregledna osnova, kombinirana z ekonomskimi spodbudami in nenehnim prilagajanjem, se smatra kot potreben mehanizem za sistematično odpravljanje napak in algoritmične pristranskosti.
Onkraj tehničnih rešitev Heinrich, prejemnik priznanja Forbes 40 Under 40, drži makro vizijo za AI, verujoč, da bi morala ustvariti obdobje obilja.
“V idealnem svetu bi to hopefully ustvarilo pogoje za družbo po pomanjkanju, kjer postanejo viri obilni in nihče se več ne bi potreboval ukvarjati z dolgočasnimi opravili,” navaja. Ta premik bi posameznikom omogočil, da “se osredotočijo na bolj ustvarjalno in ležerno delo,” s čimer bi vsakomur omogočil več prostega časa in ekonomsko varnost.
Ključno je, da poudarja, da je decentralizirani svet edinstveno primeren za pogon te prihodnosti. Lepota teh sistemov je v tem, da so spodbude usklajene, saj ustvarjajo samouravnoteženo ekonomijo za računalniško moč. Če se povpraševanje po virih poveča, se spodbude za njihovo ponudbo naravno povečajo, dokler to povpraševanje ni zadovoljeno, kar izpolnjuje potrebo po računalniških virih na uravnotežen, brez dovolilni način.
Varovanje AI: Odpri izvor in načrtovanje spodbud
Za zaščito AI pred namerno zlorabo—kot so prevare s kloniranjem glasu in deepfake posnetki—Heinrich predlaga kombinacijo rešitev, osredotočenih na ljudi in arhitekturo. Najprej, poudarek bi moral biti na izobraževanju ljudi o tem, kako prepoznati AI goljufije in ponaredke, uporabljene za prevaro in dezinformacijo. Heinrich navaja: “Moramo učiti ljudi, da znajo prepoznati ali prstni odtis AI-generirane vsebine, da se lahko zaščitijo.”
Zakonodajalci lahko igrajo vlogo z vzpostavitvijo globalnih standardov za varnost in etiko AI. Čeprav je malo verjetno, da bi to popolnoma odpravilo zlorabo AI, je prisotnost takšnih standardov “lahko korak k odvračanju od nje.” Najmočnejši protimere, pa so vtkane v decentralizirano zasnovo: “Oblikovanje sistemov, usklajenih s spodbudami, bi lahko drastično zmanjšalo namerno zlorabo AI.” Z uvajanjem in upravljanjem AI modelov na verigi so poštene udeležbe nagrajene, medtem ko zlonamerno vedenje povzroča neposredne finančne posledice prek mehanizmov za zmanjševanje na verigi.
Medtem ko nekateri kritiki strašijo pred tveganji odprtih algoritmov, Heinrich za Bitcoin.com News pravi, da to navdušeno podpira, ker omogoča vpogled v delovanje modelov. “Stvari kot so preverljive beleženje usposabljanja in nespremenljive sledi podatkov se lahko uporabijo za zagotavljanje transparentnosti in omogočanje skupnostnega nadzora,” kar neposredno odpravlja tveganja povezana z zaprtimi, lastniškimi “črnimi škatli” modeli.
Za prenom vizije o varni in poceni AI prihodnosti, 0G Labs gradi prvi “decentraliziran AI operacijski sistem (DeAIOS).”
Ta operacijski sistem je zasnovan za zagotavljanje preverljivih izvorov AI—a zelo razširljiv sloj za shranjevanje podatkov in razpoložljivost sloja, ki omogoča shranjevanje masivnih AI naborov podatkov na verigi, naredi vse podatke preverljive in sledljive. Ta raven varnosti in sledljivosti je bistvena za AI agente, ki delujejo v reguliranih sektorjih.
Poleg tega sistem vključuje brez dovolilno tržnico računalniških virov, ki demokratizira dostop do računalniških virov po konkurenčnih cenah. To je neposreden odgovor na visoke stroške in odvisnost od prodajalcev, povezano s centralizirano oblačno infrastrukturo.
0G Labs je že pokazal tehnični preboj z Dilocox, ogrodjem, ki omogoča usposabljanje LLM-jev, ki presegajo 100 milijard parametrov nad decentraliziranimi, 1 Gbps grozdi. S tem, da modele razdeli na manjše in neodvisno usposobljene dele, je Dilocox pokazal 357-kratno izboljšanje učinkovitosti v primerjavi s tradicionalnimi metodami distribucijskega usposabljanja, kar omogoča gospodarsko izvedljivo razvoj velikega obsega AI zunaj centraliziranih podatkovnih centrov.
Svetla, bolj dostopna prihodnost za AI
Na koncu Heinrich vidi zelo svetlo prihodnost za decentralizirano AI, opredeljeno s sodelovanjem in razbijanjem ovir za sprejemanje.
“To je prostor, kjer ljudje in skupnosti skupaj ustvarjajo strokovne AI modele, s čimer zagotavljajo, da bo prihodnost AI oblikovana s strani mnogih, namesto le peščice centraliziranih entitet,” zaključuje. S tem ko se lastniška AI podjetja soočajo s pritiskom na dvig cen, ekonomika in strukture spodbud DeAI ponujajo privlačno, precej bolj dostopno alternativo, kjer se lahko močni AI modeli ustvarijo po nižjih stroških, kar odpira pot za bolj odprto, varnejšo in končno bolj koristno tehnološko prihodnost.
Pogosta vprašanja
- Kaj je osnovni problem s trenutnim centraliziranim AI? Trenutni AI modeli trpijo zaradi problemov s preglednostjo, pristranskostjo podatkov in monopolističnega nadzora zaradi svoje centralizirane “črne škatle” arhitekture.
- Kaj rešitev gradi Michael Heinrich’s 0G Labs? 0G Labs razvija prvi “decentraliziran AI operacijski sistem (DeAIOS)” za zagotavljanje, da AI postane varno, preverljivo in javno dobro.
- Kako decentralizirana AI zagotavlja integriteto podatkov? Integriteto podatkov se vzdržuje z zasidranjem vseh podatkov na verigi s kriptografskimi dokazi in sledljivostjo dokazov za preprečevanje napak in halucinacij.
- Kakšna je glavna prednost 0G Labs’ Dilocox tehnologije? Dilocox je ogrodje, ki omogoča večjo učinkovitost razvoja velikih AI obsega, s 357-kratno izboljšavo v primerjavi s tradicionalnimi metodami distribucijskega usposabljanja.














