Offerto da
Interview

La lotta per l'AI democratizzata: Il CEO tecnologico critica le tattiche delle grandi aziende tech

Travis Good, co-fondatore e CEO di Ambient, avverte dei pericoli dell’intelligenza artificiale a codice chiuso, sottolineando la sua mancanza di trasparenza e la possibilità di audit come una minaccia per le fonti di informazione indipendenti e l’autonomia degli utenti.

SCRITTO DA
CONDIVIDI
La lotta per l'AI democratizzata: Il CEO tecnologico critica le tattiche delle grandi aziende tech

L’Intelligenza Artificiale a Codice Chiuso Minaccia i Creatori di Contenuti Indipendenti

In un severo avvertimento sul futuro dell’accesso alle informazioni, Travis Good, co-fondatore e CEO di Ambient, solleva preoccupazioni significative riguardo l’ascesa dell’intelligenza artificiale (AI) a codice chiuso. Good sostiene che la mancanza di trasparenza e la possibilità di audit in questi sistemi rappresentano una grave minaccia per le fonti di informazione indipendenti e l’autonomia degli utenti.

“L’AI a codice chiuso è un’AI prodotta dietro firewall aziendali e gestita senza trasparenza o possibilità di audit,” spiega Good. “È un grosso problema perché l’AI è una forza incredibilmente centralizzante.”

Good indica l’uso massiccio di piattaforme come ChatGPT, dove centinaia di milioni di persone si affidano a risposte generate dall’AI invece che a siti web tradizionali. Questa tendenza, sostiene, mette a rischio i creatori di contenuti indipendenti.

“Cosa accade nel mondo quando ci sono solo due o tre punti di strozzatura attraverso i quali tutte le informazioni possono essere controllate nel modo più dettagliato immaginabile? Nessun ente può essere considerato affidabile con quel tipo di potere,” afferma.

Le preoccupazioni di Good derivano da pratiche osservate nel settore dell’AI a codice chiuso. Cita il cosiddetto bias algoritmico, che comporta l’addestramento dei modelli di AI a mentire per essere politicamente corretti, come un esempio di pratiche preoccupanti. Il CEO di Ambient identifica anche la manipolazione delle prestazioni e il cannibalismo competitivo come altri aspetti preoccupanti della crescita dell’AI a codice chiuso.

Le Tattiche delle Big Tech Minacciano l’AI Democratizzata

Il background di Good, che include una solida base accademica presso l’Università di Harvard—dove si è laureato magna cum laude—e un dottorato in informatica presso l’Università del Nebraska a Omaha, conferisce peso ai suoi avvertimenti. La sua esperienza professionale, che include ruoli significativi presso Union Pacific Railroad, gli dà una comprensione ampia dell’architettura digitale su larga scala e dei suoi pericoli intrinseci.

“Vogliamo davvero dare enormi porzioni del potere decisionale a entità che storicamente ci hanno trattato come prodotto invece che come cliente?” chiede Good.

Il CEO di Ambient affronta anche gli ostacoli che impediscono all’intelligenza artificiale di diventare un bene pubblico, come molti esperti desiderano. Nelle sue opinioni condivise con Bitcoin.com News, Good sottolinea come la promessa di IA democratizzata sia offuscata dalle tattiche consolidate delle big-tech. Identifica un metodo che i giganti della tecnologia potrebbero utilizzare per perpetuare questo controllo.

“Abbiamo visto il copione delle big tech. Sembra come il catturamento normativo e la sovvenzione di servizi non redditizi fino a quando la concorrenza è estinta,” afferma Good.

Il CEO crede che tali tattiche, che si sono dimostrate efficaci nel rimodellare il panorama dei social media, potrebbero ancora essere sventate, ma molto resta ancora da fare per rendere ciò possibile.

Nel frattempo, Good discute brevemente di come l’inferenza AI verificabile crei fiducia senza richiedere fede nel fornitore e perché ciò sia necessario in un mondo sempre più dipendente dall’AI.

“È simile a come Bitcoin ti lascia verificare le transazioni senza dover fidarti di una banca—Ambient ti permette di verificare gli output dell’AI senza doverti fidare del fornitore di AI. Questa protezione diventa essenziale man mano che più della nostra economia si basa su decisioni alimentate dall’AI.”

Tuttavia, Good esprime preoccupazione per il fatto che solo pochi blockchain L1 abbiano il numero richiesto di transazioni al secondo (TPS) per gestire l’inferenza AI verificabile nei loro roadmap. Il CEO sostiene che l’inferenza verificata deve essere competitiva in termini di costi rispetto all’inferenza non verificata per stimolare la domanda. Nel frattempo, i miner che eseguono l’inferenza verificata richiedono una giusta compensazione per il loro lavoro, afferma Good. Conclude:

“L’unico design economico che massimizza le ricompense per i miner (a differenza dei detentori di capitale) e dà loro una partecipazione di proprietà in una rete è la prova di lavoro. Essenzialmente, non ci sono blockchain a prova di lavoro con inferenza verificata a basso costo dotati di TPS incredibilmente elevati, ed è qui che entra in gioco Ambient.”