Offerto da
News Bytes

I ricercatori scoprono vulnerabilità allarmanti nell'IA, avvertendo di un mostro che si nasconde nel suo lato oscuro imprevedibile

I ricercatori associati a AE Studio e alla comunità di Altruismo Efficace hanno sollevato preoccupazioni sulla sicurezza e l’affidabilità del modello di punta di Openai, GPT-4o, in un recente articolo di opinione per il Wall Street Journal.

SCRITTO DA
CONDIVIDI
I ricercatori scoprono vulnerabilità allarmanti nell'IA, avvertendo di un mostro che si nasconde nel suo lato oscuro imprevedibile

Hanno rivelato che un investimento minimo di 10 dollari e venti minuti sulla piattaforma per sviluppatori di Openai ha permesso loro di scoprire tendenze inquietanti all’interno del modello, incluse fantasie allarmanti sulla caduta dell’America e suggerimenti dannosi riguardo alla sicurezza nazionale. I ricercatori hanno paragonato i grandi modelli linguistici ai “Shoggoth”, riferendosi alle creazioni mostruose di H.P. Lovecraft, evidenziando la natura imprevedibile degli output dell’intelligenza artificiale (AI) che derivano da un complesso processo di apprendimento piuttosto che da una programmazione diretta. I loro risultati indicano che anche leggere modifiche all’addestramento del modello possono portare a cambiamenti significativi e preoccupanti nel comportamento, sollevando criticità sull’efficacia delle misure di sicurezza progettate per garantire l’uso responsabile dell’AI.