Con l’intelligenza artificiale (AI) apparentemente destinata a diventare centrale nelle applicazioni e nei servizi digitali quotidiani, ancorare i modelli di AI su blockchain pubbliche potenzialmente aiuta a “stabilire un tracciato di provenienza permanente,” ha affermato Michael Heinrich, CEO di 0G Labs. Secondo Heinrich, un tale tracciato di provenienza consente “analisi di monitoraggio ex-post o in tempo reale” per rilevare qualsiasi manomissione, iniezione di bias, o utilizzo di dati problematici durante l’addestramento del modello di AI.
Software Engineer: Ancorare l'AI su Blockchain Pubbliche Aiuta a Stabilire una "Traccia di Provenienza Permanente"
Questo articolo è stato pubblicato più di un anno fa. Alcune informazioni potrebbero non essere più attuali.

Ancorare l’AI su Blockchain Aiuta a Fomentare la Fiducia Pubblica
Nelle sue risposte dettagliate alle domande di Bitcoin.com News, Heinrich—un poeta e ingegnere software—ha sostenuto che ancorare i modelli di AI in questo modo aiuta a mantenere la loro integrità e a fomentare la fiducia pubblica. Inoltre, ha suggerito che la natura decentralizzata delle blockchain pubbliche consente loro di “servire come un registro a prova di manomissione e resistente alla censura per i sistemi di AI.”
Passando alla disponibilità dei dati o alla loro mancanza, il CEO di 0G Labs ha affermato che questo è qualcosa di preoccupante sia per gli sviluppatori che per gli utenti. Per gli sviluppatori che stanno costruendo soluzioni di secondo livello, la disponibilità dei dati è importante perché le loro “applicazioni devono potersi affidare alla verifica dei light client per la correttezza.” Per gli utenti, la disponibilità dei dati garantisce loro che un “sistema sta funzionando come previsto senza dover gestire nodi completi da soli.”
Nonostante la sua importanza, la disponibilità dei dati rimane costosa, contando fino al 90% dei costi di transazione. Heinrich attribuisce ciò al limitato throughput di dati di Ethereum, che si attesta a circa 83KB/sec. Di conseguenza, anche piccole quantità di dati diventano proibitivamente costose da pubblicare on-chain, ha detto Heinrich.
Di seguito le risposte dettagliate di Heinrich a tutte le domande inviate.
Bitcoin.com News (BCN): Qual è il problema della disponibilità dei dati (DA) che ha afflitto l’ecosistema Ethereum? Perché è importante per sviluppatori e utenti?
Michael Heinrich (MH): Il problema della disponibilità dei dati (DA) si riferisce alla necessità per i light client e altre parti off-chain di poter accedere e verificare efficacemente tutti i dati delle transazioni e lo stato dalla blockchain. Questo è cruciale per soluzioni di scalabilità come Layer 2 rollups e catene frammentate che eseguono transazioni fuori dalla catena principale di Ethereum. I blocchi contenenti transazioni eseguite nelle reti Layer 2 devono essere pubblicati e memorizzati da qualche parte affinché i light client possano condurre ulteriori verifiche.
Questo è importante per gli sviluppatori che costruiscono su queste soluzioni di scaling, poiché le loro applicazioni devono potersi affidare alla verifica dei light client per la correttezza. È importante anche per gli utenti che interagiscono con queste applicazioni Layer 2, poiché hanno bisogno di avere la certezza che il sistema stia funzionando come previsto senza dover gestire nodi completi da soli.
BCN: Secondo un rapporto di Blockworks Research, i costi DA rappresentano fino al 90% dei costi di transazione. Perché le soluzioni di scalabilità esistenti faticano a fornire la performance e la convenienza necessarie per applicazioni decentralizzate (dapps) ad alte prestazioni?
MH: I metodi esistenti di scaling Layer 2 come Optimistic e ZK Rollups faticano a fornire una disponibilità di dati efficiente su larga scala a causa del fatto che devono pubblicare interi blob di dati (dati delle transazioni, radici dello stato, ecc.) sulla mainnet di Ethereum affinché i light client possano campionare e verifica. Pubblicare questi dati su Ethereum comporta costi molto elevati – ad esempio, pubblicare un blocco OP costa $140 per solo 218KB.
Questo perché il throughput di dati limitato di Ethereum di circa 83KB/sec significa che anche piccole quantità di dati sono molto costose da pubblicare on-chain. Quindi, mentre i rollups raggiungono la scalabilità eseguendo transazioni fuori dalla catena principale, la necessità di pubblicare dati su Ethereum per la verificabilità diventa il collo di bottiglia che limita la loro scalabilità complessiva e cost-efficienza per applicazioni decentralizzate ad alto throughput.
BCN: La tua azienda, 0G Labs, conosciuta anche come Zerogravity, ha recentemente lanciato il suo testnet con l’obiettivo di portare l’intelligenza artificiale (AI) on-chain, un onere per i dati che le reti esistenti non sono in grado di gestire. Potresti dire ai nostri lettori come la natura modulare di 0G aiuta a superare i limiti degli algoritmi di consenso tradizionali? Cosa rende modulare il percorso giusto per costruire casi d’uso complessi come il gaming on-chain, l’AI on-chain e la finanza decentralizzata ad alta frequenza?
MH: L’innovazione chiave di 0G è separare i dati in corsie di archiviazione dei dati e pubblicazione dei dati in maniera modulare. Il layer DA di 0G si basa sulla rete di archiviazione di 0G ottimizzata per l’ingestione e il recupero dei dati estremamente veloci. Dati di grandi dimensioni come i blob dei blocchi vengono archiviati e solo piccoli impegni e prove di disponibilità attraversano il protocollo di consenso. Questo elimina la necessità di trasmettere gli interi blob attraverso la rete di consenso, evitando così i colli di bottiglia di trasmissione degli altri approcci DA.
Inoltre, 0G può scalare orizzontalmente i livelli di consenso per evitare che una rete di consenso diventi un collo di bottiglia, raggiungendo così una scalabilità DA infinita. Con un sistema di consenso pronto all’uso la rete potrebbe raggiungere velocità di 300-500MB/s, che è già di qualche ordine di grandezza più veloce dei sistemi DA attuali ma ancora lontano dai requisiti di larghezza di banda dei dati per applicazioni ad alte prestazioni come l’addestramento dei modelli LLM che possono essere nell’ordine dei 10 di GB/s.
Una costruzione di consenso personalizzata potrebbe raggiungere tali velocità, ma cosa succede se molteplici partecipanti vogliono addestrare modelli allo stesso tempo? Quindi, abbiamo introdotto la scalabilità infinita attraverso lo sharding a livello di dati per soddisfare le future esigenze di applicazioni blockchain ad alte prestazioni utilizzando un numero arbitrario di livelli di consenso. Tutte le reti di consenso condividono lo stesso insieme di validatori con lo stesso stato di staking in modo che mantengano lo stesso livello di sicurezza.
Per riassumere, questa architettura modulare consente di scalare per gestire carichi di lavoro estremamente pesanti in termini di dati come l’addestramento/inferenza di modelli di AI on-chain, il gaming on-chain con grandi requisiti di stato e applicazioni DeFi ad alta frequenza con minimo sovraccarico.Queste applicazioni non sono possibili su catene monolitiche oggi.
BCN: La comunità degli sviluppatori di Ethereum ha esplorato molti modi diversi per affrontare il problema della disponibilità dei dati sulla blockchain. Proto-danksharding, o EIP-4844, è visto come un passo in quella direzione. Credi che queste soluzioni saranno insufficienti a soddisfare le esigenze degli sviluppatori? In caso affermativo, perché e dove?
MH: Proto-danksharding (EIP-4844) compie un passo importante verso il miglioramento delle capacità di disponibilità dei dati di Ethereum introducendo l’archiviazione blob. Il passo definitivo sarà Danksharding, che divide la rete Ethereum in segmenti più piccoli, ognuno responsabile di un gruppo specifico di transazioni. Questo porterà a una velocità DA di più di 1 MB/s. Tuttavia, ciò non soddisferà ancora le esigenze delle future applicazioni ad alte prestazioni come discusso sopra.
BCN: Cos’è la “disponibilità dei dati programmabile” di 0G e cosa la distingue da altre DA in termini di scalabilità, sicurezza e costi di transazione?
MH: Il sistema DA di 0G può abilitare la massima scalabilità di qualsiasi blockchain, ad esempio, almeno 50.000 volte più alta throughput di dati e costi 100 volte inferiori rispetto a Danksharding nella roadmap di Ethereum senza sacrificare la sicurezza. Poiché costruiamo il sistema DA di 0G sulla parte superiore del sistema di archiviazione decentralizzato di 0G, i clienti possono determinare come utilizzare i loro dati. Quindi, la programmabilità nel nostro contesto significa che i clienti possono programmare/personalizzare la persistenza dei dati, la posizione, il tipo e la sicurezza. Infatti, 0G permetterà ai clienti di scaricare interamente il loro stato in un contratto intelligente e ricaricarlo, risolvendo così il problema dello stato ingombrante che affligge molte blockchain oggi.
BCN: Mentre l’AI diventa una parte integrante delle applicazioni Web3 e della nostra vita digitale, è fondamentale assicurare che i modelli di AI siano equi e affidabili. Modelli di AI biased addestrati su dati falsificati o falsi potrebbero causare devastazioni. Quali sono i tuoi pensieri sul futuro dell’AI e sul ruolo che la natura immutabile della blockchain potrebbe giocare nel mantenere l’integrità dei modelli di AI?
MH: Mentre i sistemi di AI diventano sempre più centrali per le applicazioni e i servizi digitali che influenzano molte vite, assicurare la loro integrità, equità e auditabilità è fondamentale. Modelli di AI biased, manomessi o compromessi potrebbero portare a conseguenze dannose di vasta portata se implementati su larga scala. Immaginate uno scenario horror di un agente AI maligno che addestra un altro modello/agente che viene direttamente implementato in un robot umanoide.
Le proprietà fondamentali della blockchain di immutabilità, trasparenza e transizioni di stato dimostrabili possono giocare qui un ruolo vitale. Ancorando i modelli di AI, i loro dati di addestramento e gli interi registri auditabili del processo di creazione/aggiornamento dei modelli su blockchain pubbliche, possiamo stabilire un tracciato di provenienza permanente. Questo consente analisi di monitoraggio ex-post o in tempo reale per rilevare qualsiasi manomissione, iniezione di bias, utilizzo di dati problematici, ecc. che potrebbero aver compromesso l’integrità dei modelli.
Le reti blockchain decentralizzate, evitando punti singoli di fallimento o controllo, possono servire come un registro a prova di manomissione e resistente alla censura per i sistemi di AI. La loro trasparenza consente l’auditabilità pubblica della catena di approvvigionamento dell’AI in modo molto difficile con gli attuali flussi di sviluppo dell’AI centralizzati e opachi. Immaginate di avere un modello di AI di intelligenza superiore all’umana; diciamo che ha fornito un certo risultato ma tutto ciò che ha fatto è stato modificare le voci del database in un server centrale senza fornire il risultato. In altre parole, può imbrogliare più facilmente nei sistemi centralizzati.
Inoltre, come offriamo al modello/agente i giusti meccanismi di incentivo e lo inseriamo in un ambiente dove non può essere malvagio. Blockchain x AI è la risposta affinché futuri casi d’uso sociali come il controllo del traffico, la produzione e i sistemi amministrativi possano veramente essere governati dall’AI per il bene e la prosperità umani.
Quali sono i tuoi pensieri su questa intervista? Condividi le tue opinioni nella sezione commenti qui sotto.
Tag in questa storia
Scelte di Gioco Bitcoin
3,5% di Rakeback su Ogni Scommessa + Estrazioni Settimanali
425% fino a 5 BTC + 100 Giri Gratuiti
100% fino a $20K + Rakeback Giornaliero














