Offerto da
Interview

Oltre l'Hype: Il CTO sostiene che l'IA può aumentare, non sostituire, la creatività umana

Questo articolo è stato pubblicato più di un anno fa. Alcune informazioni potrebbero non essere più attuali.

Un CTO sostiene che l’intelligenza artificiale generativa (AI) potenzia la creatività abbassando le barriere e spostando l’attenzione umana su compiti di livello superiore.

SCRITTO DA
CONDIVIDI
Oltre l'Hype: Il CTO sostiene che l'IA può aumentare, non sostituire, la creatività umana

Abbassare le Barriere alla Creatività con l’AI

Alimentati dalla paura che l’AI possa alla fine soffocare la creatività, le predizioni catastrofiche non sono una novità, come ha affermato Phillipe Wassibauer, chief technology officer (CTO) presso Crunchdao. Wassibauer, tuttavia, sostiene che anche alcune delle soluzioni tecnologiche di maggior successo hanno affrontato simili resistenze prima di dimostrarsi strumenti che potenziano la creatività umana.

Facendo il caso per l’AI generativa, Wassibauer ha raccontato a Bitcoin.com News che invece di soffocare l’innovazione umana, la tecnologia si sta dimostrando “un strumento più potente che abbassa le barriere alla creatività.” Indica come chiunque possa facilmente utilizzare l’AI per produrre video di alta qualità con prompt ben elaborati, sostenendo questa affermazione.

Inoltre, piuttosto che degradare la creatività umana, come sottolineano alcuni critici. Questo, egli sostiene, dimostra che “l’AI generativa potenzia, non sostituisce, il processo creativo.”

Per quanto riguarda la bassa fiducia nell’AI, il CTO di Crunchdao ha identificato le paure sulla privacy e le preoccupazioni per la perdita di posti di lavoro come alcuni dei principali fattori contributivi. Anche se non è una “cura per tutto”, il CTO ha sostenuto che la decentralizzazione potrebbe essere il passo che allinea l’AI a valori come l’equità e l’autonomia, che possono costruire fiducia.

In un’altra risposta scritta condivisa con Bitcoin.com News, Wassibauer ha affrontato i rischi dell’AI e come gli ingegneri attuali possono aiutare a ridurli. Ha anche espresso il suo punto di vista sui passi regolatori intrapresi finora. Di seguito le risposte di Wassibauer alle domande inviate.

Bitcoin.com News (BCN): Secondo un rapporto di KPMG, tre persone su cinque sono caute nel fidarsi dell’intelligenza artificiale (AI) con il 67% delle persone che segnalano un’accettazione bassa o moderata della tecnologia. Crede che l’arrivo di tecnologie decentralizzate e altre innovazioni associate possa aiutare a migliorare la fiducia degli utenti nell’AI? A suo avviso, perché esiste un problema di fiducia così profondo in primo luogo?

Phillipe Wassibauer (PW): La bassa accettazione dell’AI è guidata da fattori come la comprensione errata, le paure sulla privacy, l’inaccuratezza, lo sviluppo rapido e le preoccupazioni per la perdita di posti di lavoro. La decentralizzazione può aiutare migliorando la privacy con dati controllati dagli utenti, aumentando la trasparenza attraverso sistemi verificabili e riducendo il controllo centralizzato. Anche se non è una cura per tutto, è un passo verso l’allineamento dell’AI a valori come l’equità e l’autonomia, che possono ricostruire la fiducia.

BCN: Ci sono tendenze o innovazioni relative all’AI che ritiene siano trascurate o sottovalutate? Come pensa che queste tendenze o innovazioni possano essere sfruttate per guidare la crescita o il miglioramento nel campo dell’analisi dei dati?

PW: Gli agenti AI sono destinati a diventare una tendenza importante, specialmente negli ecosistemi blockchain. Questi sistemi sono realizzati su misura per i bot: i dati sono accessibili, i sistemi sono componibili e le interazioni sono senza soluzione di continuità. Man mano che il settore finanziario si sposta sulla blockchain, il potenziale per gli agenti AI di sfruttare questi dati crescerà, guidando un’automazione più intelligente, ottimizzazione e innovazione nell’analisi e nel processo decisionale.

BCN: Può discutere brevemente di eventuali sfide o ostacoli affrontati nel tentativo di passare da sistemi tradizionali a strutture decentralizzate e come ha superato queste sfide?

PW: Creare effetti di rete con la tokenomics: nelle app tradizionali, l’adozione dipende dalla creazione di un ottimo prodotto e dal trovare l’adozione. Nel Web3, la tokenomics è fondamentale per guidare gli effetti di rete. È fondamentale progettarli in modo ponderato per premiare gli early adopters e allineare gli incentivi tra i partecipanti per la crescita e la collaborazione.

Decidere sui livelli di decentralizzazione: un protocollo completamente decentralizzato è l’obiettivo finale, ma andare completamente decentralizzato troppo presto può rallentare lo sviluppo del prodotto e il processo decisionale. Trovare il giusto equilibrio per l’iterazione iniziale del protocollo è impegnativo ma essenziale per il successo a lungo termine.

Conformità normativa: operare in un campo nascente significa navigare in regolamenti poco chiari, che richiedono tempo e sforzi significativi. Costruire prodotti conformi pur rimanendo agili è una sfida costante.

BCN: Negli ultimi anni, sono emerse diverse piattaforme AI dove gli utenti di internet possono applicare prompt in lingue semplici per ottenere risultati. Molti credono che l’emergere di tali soluzioni stia togliendo la creatività e l’intuitività associate all’umanità. Qual è la sua reazione a questa affermazione? Crede nel trovare un equilibrio tra la creatività umana e le capacità dell’AI, o pensa che l’umanità sia su un percorso irreversibile verso il dominio dell’AI?

PW: Questa paura emerge con ogni nuova tecnologia: libri, computer, internet, si nomina. Tuttavia, ognuna di queste ha alla fine aumentato la creatività umana. L’AI generativa non è diversa, a mio avviso.

È semplicemente uno strumento più potente che abbassa le barriere alla creatività. Ad esempio, ora puoi produrre video di alta qualità con prompt ben elaborati che richiedevano precedentemente un grande budget e un ampio sforzo.

La creatività umana non viene persa; sta cambiando. Invece di concentrarsi su compiti operativi, ci stiamo spostando verso ideazione, direzione e pianificazione. L’AI generativa potenzia, non sostituisce, il processo creativo.

BCN: Come si bilanciano i potenziali benefici dell’automazione guidata dall’AI con la necessità di proteggere i posti di lavoro e garantire che i sistemi AI siano trasparenti e responsabili?

PW: I sistemi AI dipendono fortemente dall’input umano, ed è logico che tali sistemi ricompensino i creatori dei dati da cui apprendono. In CrunchDAO, stiamo costruendo un sistema che incarna questo principio. Man mano che matura e diventa più autonomo, garantiamo che la proprietà intellettuale rimanga con i creatori. Ogni volta che i loro modelli vengono utilizzati, guadagnano royalties, creando un potenziale di reddito passivo.

Inoltre, abbiamo in programma di utilizzare i ricavi generati dal sistema per il riacquisto di token e la combustione, offrendo ulteriori vantaggi ai partecipanti alla rete. Questo approccio non solo allinea gli incentivi, ma garantisce anche trasparenza e responsabilità. Mi aspetto che modelli simili emergano in altri sistemi decentralizzati.

BCN: Ha recentemente aderito a Crunchdao come CTO dell’azienda, portando oltre 20 anni di esperienza nella leadership in ingegneria e sviluppo del prodotto. Come CTO, quali iniziative o progetti legati all’AI è più entusiasta di esplorare o sviluppare nel prossimo futuro? Può anche fare luce sul futuro del calcolo decentralizzato nella roadmap di Crunchdao e su come si integra con AI/ML?

PW: Sono particolarmente entusiasta dei sistemi di previsione in tempo reale che stiamo ampliando il prossimo anno. Questi sistemi elaborano flussi di dati in tempo reale per generare previsioni, iniziando con le previsioni dei prezzi di mercato medio. Il prossimo caso d’uso probabilmente si concentrerà sul miglioramento dei sistemi on-chain, creando valore immediato e azionabile per gli ecosistemi decentralizzati.

Ciò che mi entusiasma ancora di più è come questi sistemi evolvono. Possono essere continuamente ottimizzati, con nuovi modelli aggiunti e output aggregati attraverso metodi componibili. Molti attori contribuiscono all’ottimizzazione delle previsioni, garantendo che le migliori idee emergano in testa. Questo crea un sistema trasparente e aperto dove chiunque può partecipare e coloro che contribuiscono alla creazione di valore sono ricompensati costantemente.

Per quanto riguarda il calcolo decentralizzato, è centrale nella roadmap di CrunchDAO. Si allinea con la nostra visione di un ecosistema di modellazione predittiva democratico e scalabile, abilitando capacità AI/ML in tempo reale garantendo al contempo efficienza, equità e inclusività nel modo in cui le previsioni e i risultati sono generati.

BCN: Crunchdao afferma di avere oltre 6.000 data scientists e 600 individui a livello PhD che sviluppano approfondimenti generativi di alfa tramite la sua rete di intelligenza collettiva. Perché un numero così elevato di esperti, cosa fanno esattamente e come gestisce la piattaforma le operazioni all’interno della sua rete?

PW: Attualmente, i nostri data scientists e PhD competono in sfide di alto livello su argomenti come la previsione dei prezzi di mercato medio, analisi della causalità, previsione del cancro e gestione del portafoglio, tra gli altri. Aziende e fondazioni si rivolgono a noi per testare e sfidare le loro metodologie interne, spesso portando allo sviluppo di metodi nuovi e più efficaci. Queste sfide sono strutturate come tornei e il nostro approccio decentralizzato ha ripetutamente superato modelli tradizionali e interni.

Ma questo è solo l’inizio. Stiamo costruendo una rete decentralizzata dove i partecipanti possono contribuire con modelli e previsioni, evolvendo la piattaforma in un ecosistema di modellazione predittiva guidato dal protocollo e innovativo. Questo approccio favorisce la collaborazione, incentiva la creatività e garantisce un miglioramento continuo, creando un sistema molto più dinamico ed efficace delle alternative centralizzate.

BCN: Come ogni innovazione, l’AI presenta rischi, specialmente negli attuali stadi infantili della sua evoluzione. I rischi di gestione e sviluppo dei dati sono nelle mani degli ingegneri del software e degli analisti dei dati. Quanta fiducia ha nella generazione attuale di ingegneri AI/ML nel fornire soluzioni con rischi minimi per l’umanità?

PW: Non c’è un rischio intrinseco nel machine learning stesso, specialmente in casi come i nostri, dove si tratta di trovare previsioni analizzando i dati. Quando l’AI è utilizzata da individui o team di piccola scala, non sono troppo preoccupato. È solo un altro strumento per potenziare la creatività o migliorare i processi. Questo non significa che non verrà utilizzato per risultati negativi qui, ma non è un rischio per l’umanità.

I veri rischi emergono quando l’AI è utilizzata da stati-nazione o grandi entità. Questi giocatori hanno le risorse per utilizzare l’AI su grande scala, potenzialmente per sorveglianza, manipolazione o sistemi d’armi autonomi. Il problema non è la tecnologia bensì l’intento dietro il suo uso.

BCN: Che ruolo dovrebbe svolgere l’AI nell’informare le decisioni di sviluppo dei prodotti e come ha integrato approfondimenti basati su AI nei suoi ruoli precedenti?

PW: L’AI sta già plasmando lo sviluppo del prodotto attraverso strumenti di analisi che aiutano i team a ricavare informazioni. Ad esempio, in Dune, abbiamo costruito sistemi AI che aiutano a creare o correggere query SQL e a generare visualizzazioni, rendendo il processo decisionale più agile.

A CrunchDAO, andiamo oltre immaginando una rete di modelli progettati per affrontare diversi problemi. Questi modelli sono ricompensati e potenziati in base alla loro utilità e impatto, consentendo all’ecosistema di auto-ottimizzarsi nel tempo.

Questo si allinea con il futuro che prevedo: agenti AI che monitorano continuamente i dati, apprendono modelli e generano proattivamente idee o proposte, guidando efficienza e innovazione nel processo decisionale.

BCN: I potenziali rischi associati alle macchine AI hanno informato le normative esistenti nel settore. Governi e istituzioni hanno ripetutamente sottolineato la possibilità di malfunzionamenti dell’AI o conseguenze non intenzionali se non gestiti correttamente. A suo parere, queste paure sono giustificate?

PW: È troppo presto per dire quanto siano giustificate queste paure. L’AI è ancora agli inizi, e mentre inevitabilmente ci saranno abusi o conseguenze indesiderate, non prevedo grandi problemi quando i civili utilizzano la tecnologia. Sì, ci saranno casi d’uso errati—come la disinformazione o le truffe—ma la tecnologia stessa spesso fornisce strumenti per contrastare questi rischi, come i sistemi di rilevazione AI per frodi o disinformazione.

Ciò che mi preoccupa maggiormente è quando l’AI è armato o controllato a livello statale o da grandi entità. I rischi qui, come le armi autonome, la sorveglianza o la manipolazione su larga scala sono molto più grandi. Se solo grandi entità o stati fossero a controllare questa tecnologia, sarebbe particolarmente allarmante, poiché potrebbe concentrare il potere e creare squilibri significativi.

BCN: Pensa che i passi regolatori intrapresi finora siano correttamente elaborati, o ci sono aree che ritiene debbano essere modificate per ottenere un ecosistema equilibrato senza soffocare l’innovazione?

PW: Ci sono leggi proposte, ma non molte sono ancora attive. In generale, avere una chiarezza normativa è un passo positivo, poiché fornisce linee guida per sviluppatori e aziende. Tuttavia, c’è un reale pericolo di soffocare l’innovazione se le normative diventano troppo restrittive o non riescono ad adattarsi alla rapida evoluzione della tecnologia AI. Questo è particolarmente il caso qui, poiché siamo all’inizio del boom dell’AI ed è poco chiaro cosa accadrà nei prossimi anni, sia dal lato dell’innovazione che della regolazione.

Da quanto ho capito, l’equilibrio sta nell’elaborare regolamenti che affrontino preoccupazioni critiche—come pregiudizi, privacy e responsabilità—senza creare barriere inutili per le startup e gli innovatori. Coinvolgere esperti del settore e una politica iterativa potrebbe aiutare, cosa che sembra stia avvenendo attualmente.

BCN: Come vede evolvere le tecnologie AI e machine learning nei prossimi 2-5 anni? Ulteriori approfondimenti da parte sua sui sistemi AI/ML e le possibilità che offrono nell’ecosistema in rapida evoluzione delle soluzioni decentralizzate?

PW: Non sono un esperto nello sviluppo e nella formazione LLM, ma sospetto che potremmo vedere un plateau nei progressi, dato che modelli più grandi diventano esponenzialmente più costosi da calcolare, e l’acquisizione di nuovi dati per la formazione diventa più onerosa. Ad esempio, l’economia unitaria di OpenAI al momento non sembra sostenibile se consideriamo queste sfide.

Detto ciò, i modelli esistenti e in arrivo sono già incredibilmente potenti, ed è per questo che stiamo assistendo a un’integrazione diffusa. Man mano che la tecnologia matura e la comprensione si approfondisce, mi aspetto un periodo d’innovazione dove nuovi approcci e applicazioni fioriranno. In particolare, sono entusiasta del passaggio di più sistemi alla blockchain. Il potenziale per gli agenti AI di sfruttare i dati della blockchain—accessibili, componibili e senza soluzione di continuità—è enorme, guidando un’automazione più intelligente, l’ottimizzazione e l’innovazione nell’analisi e nel processo decisionale.

CrunchDAO è in una posizione unica per guidare in questo spazio, costruendo l’infrastruttura per supportare e plasmare queste tendenze emergenti, garantendo che le soluzioni decentralizzate svolgano un ruolo fondamentale in questa prossima fase dell’evoluzione AI/ML.

Tag in questa storia