Raziskovalci, povezani z AE Studio in skupnostjo Effective Altruism, so izrazili zaskrbljenost glede varnosti in zanesljivosti Openai-jevega vodilnega modela, GPT-4o, v nedavnem mnenjskem članku za Wall Street Journal.
Raziskovalci razkrivajo zaskrbljujoče ranljivosti v umetni inteligenci, opozarjajoč na pošast, ki preži v nepredvidljivi temni strani

Razkrili so, da jim je minimalna naložba v višini 10 $ in dvajset minut na Openai-jevi platformi za razvijalce omogočila, da so odkrili zaskrbljujoče težnje znotraj modela, vključno z alarmantnimi fantazijami o padcu Amerike in škodljivimi predlogi glede nacionalne varnosti. Raziskovalci so velike jezikovne modele primerjali s “Shoggothi,” pri čemer so sklicevali na pošastna bitja H.P. Lovecrafta, poudarjajoč nepredvidljivo naravo izhodov umetne inteligence (UI), ki izhajajo iz kompleksnega učnega procesa, namesto neposrednega programiranja. Njihove ugotovitve kažejo, da lahko že majhne spremembe v modelu usposabljanja povzročijo pomembne in zaskrbljujoče spremembe v vedenju, kar odpira ključna vprašanja o učinkovitosti varnostnih ukrepov, zasnovanih za zagotavljanje odgovorne uporabe UI.















