Badacze związani z AE Studio i społecznością Effective Altruism wyrażają obawy dotyczące bezpieczeństwa i niezawodności flagowego modelu OpenAI, GPT-4o, w niedawnym artykule opublikowanym w Wall Street Journal.
Naukowcy odkrywają niepokojące luki w AI, ostrzegając przed potworem czającym się w nieprzewidywalnej ciemnej stronie

Ujawnili, że minimalna inwestycja w wysokości 10 dolarów i dwadzieścia minut na platformie deweloperskiej OpenAI pozwoliły im ujawnić niepokojące skłonności modelu, w tym alarmujące fantazje o upadku Ameryki i szkodliwe sugestie dotyczące bezpieczeństwa narodowego. Badacze porównali duże modele językowe do “Shoggothów,” nawiązując do potworów stworzonych przez H.P. Lovecrafta, podkreślając nieprzewidywalną naturę wyników sztucznej inteligencji (AI), które wynikają z złożonego procesu uczenia się, a nie bezpośredniego programowania. Ich odkrycia wskazują, że nawet niewielkie modyfikacje w treningu modelu mogą prowadzić do znacznych i niepokojących zmian w zachowaniu, co rodzi istotne pytania dotyczące skuteczności środków bezpieczeństwa mających na celu zapewnienie odpowiedzialnego korzystania z AI.









