Offerto da
Interview

Gli strumenti Open Source livellano il campo di gioco per le piccole aziende di AI, dice il sostenitore dell'AI decentralizzata

Questo articolo è stato pubblicato più di un anno fa. Alcune informazioni potrebbero non essere più attuali.

Per prevenire cause legali e contrapporre accuse di addestrare i rispettivi modelli di intelligenza artificiale (AI) con dati ottenuti illegalmente, le aziende di AI dovrebbero fare affidamento su dati pubblicamente disponibili o open source, secondo Alberto Fernandez. Fernandez, sostenitore dell’AI decentralizzata e anche rappresentante europeo di Qubic Ecosystem, enfatizza che le aziende di AI dovrebbero considerare l’anonimizzazione e l’aggregazione dei dati per affrontare le preoccupazioni sulla privacy.

SCRITTO DA
CONDIVIDI
Gli strumenti Open Source livellano il campo di gioco per le piccole aziende di AI, dice il sostenitore dell'AI decentralizzata

Il costo dell’addestramento dei modelli AI presenta una barriera significativa all’entrata

Riferendosi a un caso di maggio in cui la startup AI Lovo è stata citata in giudizio per aver presumibilmente usurpato le voci di due attori, Fernandez ha concordato con i querelanti che le azioni della startup costituivano una violazione dei diritti alla privacy. Inoltre, ha sostenuto che l’atto violava gli standard etici ignorando l’autonomia degli attori. Il rappresentante dell’ecosistema Qubic suggerisce che il consenso esplicito degli individui coinvolti avrebbe potuto prevenire azioni legali contro la startup AI.

Nel frattempo, nelle sue risposte scritte a Bitcoin.com News, Fernandez ha dichiarato che le conclusioni dello studio AI Index dell’Università di Stanford, che indicano che il costo dell’addestramento dei modelli di AI all’avanguardia è aumentato vertiginosamente, sono per lo più corrette. Tuttavia, Fernandez ha anche notato che le piccole aziende di AI con risorse finanziarie limitate possono ancora competere efficacemente concentrandosi su nicchie di mercato e adottando strumenti open source.

Per quanto riguarda il ruolo dei regolatori, Fernandez ha sottolineato la necessità di standard chiari nei servizi di AI. Ha raccomandato audit regolari e sanzioni per la non conformità. Inoltre, ha evidenziato l’importanza della collaborazione internazionale per affrontare le sfide transfrontaliere e promuovere la consapevolezza pubblica attraverso l’educazione su pratiche di AI sicure.

Nelle risposte rimanenti, Fernandez ha condiviso le sue intuizioni sulla traiettoria dell’industria AI nei prossimi cinque anni e discusso l’equilibrio delicato tra favorire l’innovazione e salvaguardare il pubblico.

Bitcoin.com News (BCN): Lo scorso maggio, una coppia ha citato in giudizio la startup AI di Berkeley, Lovo, accusando l’azienda di aver sottratto indebitamente le loro voci. Questo caso mette in evidenza una frattura crescente tra i creatori e le aziende AI, accusate di ammassare senza discriminazione enormi quantità di dati per alimentare la loro tecnologia. A tuo parere, l’azienda AI era giustificata nell’usare le voci degli individui per l’addestramento dei sistemi senza il loro permesso? Quali passi alternativi avrebbe potuto adottare per prevenire azioni legali?

Alberto Fernandez (AF): Utilizzare la voce di qualsiasi individuo per l’addestramento del sistema senza il loro permesso, viola i diritti alla privacy, viola le leggi sulla proprietà intellettuale e infrange gli standard etici ignorando l’autonomia degli individui. Per prevenire azioni legali, LOVO avrebbe dovuto ottenere il consenso esplicito degli individui, garantendo trasparenza su come le loro voci sarebbero state utilizzate. In alternativa, l’azienda avrebbe potuto utilizzare dati vocali pubblicamente disponibili o open source, creare dati vocali sintetici, o anonimizzare e aggregare i dati per mitigare le preoccupazioni sulla privacy.

BCN: Le complessità legate alla gestione dei dati in questa era di tecnologie emergenti sembrano concentrarsi sui protocolli normativi esistenti e sui loro limiti. Le leggi attuali limitano l’innovazione, eppure la loro rimozione potrebbe esporre potenzialmente l’industria a rischi illimitati. Come possono le autorità bilanciare le normative sulla gestione dei dati che proteggono il pubblico dai rischi esistenti promuovendo al contempo l’innovazione?

AF: Bilanciare le normative sulla gestione dei dati per proteggere il pubblico promuovendo al contempo l’innovazione richiede un quadro normativo dinamico e flessibile. Le autorità dovrebbero adottare un approccio basato sui rischi che adatta le normative al livello di rischio associato a diversi tipi di dati e tecnologie, assicurando una solida protezione per i dati sensibili mentre si concede più indulgenza per le innovazioni a rischio inferiore.

L’implementazione di sandbox normative può fornire un ambiente controllato dove le nuove tecnologie possono essere testate sotto la supervisione normativa, facilitando l’innovazione senza compromettere la sicurezza. Inoltre, un dialogo continuo tra regolatori, portatori di interesse dell’industria e il pubblico può aiutare ad adattare le normative alle tecnologie emergenti, assicurandosi che rimangano rilevanti ed efficaci senza ostacolare il progresso tecnologico.

BCN: Le implicazioni normative rappresentano solo uno degli aspetti delle numerose sfide che l’industria AI sta affrontando. Un recente rapporto dell’Università di Stanford rivela che i costosi addestramenti dei modelli AI stanno ostacolando la partecipazione da parte di entità non industriali. Condividi le conclusioni dello studio dell’Università di Stanford sulle limitazioni indotte dai costi? In caso affermativo, come pensi che le aziende AI emergenti possano gestire la situazione per evitare l’estinzione?

AF: Condivido lo studio dell’Università di Stanford sulla significativa barriera dei costi dell’addestramento dei modelli AI per entità non industriali. Inoltre, sfruttare piattaforme AI basate su cloud e collaborare con istituzioni accademiche e consorzi offre ulteriori vie per risorse economiche e finanziamento della ricerca condiviso. Concentrarsi su nicchie di mercato e adottare strumenti open source migliora anche l’accessibilità, consentendo alle piccole aziende di AI di innovare e competere efficacemente nell’industria.

BCN: Come rappresentante dell’ecosistema per l’Europa di Qubic, una catena Layer-1 focalizzata sull’intelligenza artificiale (AI), quali sono i contributi che stai apportando allo sviluppo etico dell’AI? Puoi dirci brevemente quali soluzioni chiave offri per affrontare le sfide che l’industria AI sta affrontando?

BCN: Come rappresentante fondatore dell’ecosistema Qubic, i miei contributi allo sviluppo etico dell’AI includono assicurare la trasparenza, promuovere la privacy dei dati e favorire un accesso inclusivo alle tecnologie AI. Qubic affronta le sfide dell’industria AI offrendo un’infrastruttura scalabile e sicura, facilitando la gestione decentralizzata dei dati e implementando meccanismi di governance robusti per mantenere gli standard etici.

Le nostre soluzioni permettono agli sviluppatori di costruire applicazioni AI che sono sia innovative che allineate ai principi etici, guidando un avanzamento responsabile dell’AI. Inoltre, abbiamo recentemente invitato l’UNESCO al nostro ultimo evento sull’AI, evidenziando il nostro impegno per lo sviluppo etico dell’AI e sottolineando la nostra dedizione agli standard etici globali, assicurando che la tecnologia AI benefici responsabilmente tutta l’umanità.

BCN: Quali ruoli possono giocare le autorità normative di varie giurisdizioni nel salvaguardare i cittadini dallo sfruttamento da parte di cattivi attori che offrono presunti servizi AI?

AF: Le autorità normative possono salvaguardare i cittadini stabilendo standard chiari per i servizi AI, conducendo audit regolari, imponendo sanzioni per la non conformità e promuovendo la trasparenza. Dovrebbero anche facilitare la collaborazione internazionale per affrontare le sfide transfrontaliere e assicurare la consapevolezza del pubblico attraverso l’educazione sulle pratiche sicure di AI.

BCN: Qubic utilizza un meccanismo di consenso unico chiamato il Proof of Work Utile. Puoi dirci ai nostri lettori cos’è e perché hai sentito la necessità di svilupparlo?

AF: Qubic impiega un meccanismo di consenso basato su quorum, ispirato al documento di Nick Szabo, che richiede un numero minimo di membri per concordare al fine di approvare una transazione. Ciò è in contrasto con il nostro algoritmo di mining, il Proof of Work Utile (uPoW). L’algoritmo uPoW assicura che gli sforzi computazionali siano indirizzati verso compiti pratici, migliorando così l’efficienza e l’utilizzo delle risorse. Questo approccio innovativo combina il mining con lavoro utile, rendendo la rete più produttiva e sostenibile mantenendo al contempo una robusta sicurezza attraverso il consenso basato su quorum.

BCN: Infine, dove vedi l’industria AI da qui a cinque anni?

AF: Nei prossimi cinque anni, prevedo che l’industria AI compirà passi significativi verso uno sviluppo più etico e responsabile, guidato da varie avanzamenti tecnologici. Il focus sarà sulla democratizzazione dell’accesso alle tecnologie AI avanzate assicurando standard etici attraverso pratiche trasparenti e responsabili. Possiamo aspettarci che l’AI diventi sempre più integrata nella vita quotidiana, migliorando significativamente l’efficienza in vari settori e potenziando le esperienze degli utenti personalizzate.

Inoltre, posso anticipare che lo sviluppo dell’Intelligenza Generale Artificiale (AGI) raggiungerà traguardi critici entro questo lasso di tempo. Gli sforzi collettivi della comunità AI mirano a plasmare un futuro dove l’AI beneficia l’intera società, favorendo l’innovazione e il progresso tecnologico responsabile.

Quali sono i tuoi pensieri su questa intervista? Condividi le tue opinioni nella sezione commenti qui sotto.

Tag in questa storia