Rastoča industrija umetne inteligence se sooča s ključnimi izzivi, ki zahtevajo takojšnjo pozornost razvijalcev in oblikovalcev politik. Roman Georgio poudarja tri ključne skrbi: zagotavljanje skladnosti in varnosti umetne inteligence ter vzpostavitev pravičnega ekonomskega okvira za tiste, katerih podatki poganjajo te sisteme.
Iz Redditovih Nitk do Robotskih Misli: Skriti Stroški Učenja UI

Prednostna naloga: Varnost in predvidljivost umetne inteligence
Medtem ko industrija umetne inteligence (AI) nadaljuje svoj hiter vzpon in potiska meje dosegljivega pri strojih, se pojavljajo ključni izzivi, ki zahtevajo nujno pozornost razvijalcev, oblikovalcev politik in širše globalne skupnosti. Roman Georgio, izvršni direktor in soustanovitelj Coral, je nedavno delil svoje vpoglede v te pereče probleme, pri čemer je poudaril nujno potrebo po uskladitvi, varnosti in pravičnejšemu ekonomskemu modelu za ustvarjalce podatkov.
Razprava o prihodnosti umetne inteligence pogosto niha med njenim preobrazbenim potencialom ter kompleksnimi etičnimi in družbenimi dilemami, ki jih predstavlja. Medtem ko inovacije, kot so veliki jezikovni modeli (LLM), še naprej navdušujejo s svojimi zmožnostmi, prav tako poudarjajo temeljna vprašanja glede lastništva podatkov, kompenzacije in same strukture dela.
Za Georgio je najpomembnejša skrb uskladitev in varnost umetne inteligence. “Jasno je, da moramo narediti sisteme umetne inteligence bolj predvidljive, preden jih povečamo,” je dejal. To govori o osrednjem izzivu zagotavljanja, da vse močnejši sistemi umetne inteligence delujejo na načine, ki so koristni in načrtovani, ne da bi povzročili nepredvidene ali škodljive rezultate. Hitro skaliranje zmogljivosti AI brez vzporednega poudarka na predvidljivosti in nadzoru predstavlja znatno tveganje.
Georgio je poudaril, da to ni izključno breme razvijalcev. Namignil je, da bi to morda zahtevalo širši, usklajen napor, ki bi lahko vključeval “vse voditelje podjetij in držav v prostor za dogovor o neki obliki zakonodaje.”
Gospodarska nujnost: Lastništvo podatkov in kompenzacija
Poleg varnosti je Georgio izpostavil pomembno gospodarsko vprašanje, za katerega verjame, da so tehnologije Web3 edinstveno pozicionirane, da ga rešijo: prilastitev podatkov in potencialna množična izguba delovnih mest brez pravične kompenzacije.
“Podjetja z umetno inteligenco so slovela po tem, da so slabo ravnala s prilastitvijo podatkov,” je pojasnil Georgio.
Soustanovitelj Coral je slikal živopisno sliko, kako posamezni prispevki na spletu, pogosto narejeni nezavedno, zdaj služijo za treniranje močnih AI modelov, ki bi lahko na koncu nadomestili človeška delovna mesta. Kot primere je navedel zdravstvena vprašanja, na katera so na primer odgovarjali na platformah, kot je Reddit pred leti, nezavedno posredovana LLM-om. Opozoril je tudi na ustvarjalna dela umetnikov, ki se uporabijo za treniranje, kar vpliva na njihovo preživetje, kot tudi na prispevke k odprtokodnim projektom, ki nehote poganjajo “stroje za številčno obračunavanje v črni škatli”.
Tovrstna situacija, po Georgiu, se nanaša na temeljno pomanjkanje lastništva posameznikov nad njihovimi digitalnimi prispevki. “Nikoli niste vedeli, da hranite stroj za številčno obračunavanje v črni škatli,” je poudaril. Trenutni model omogoča, da se AI sistemi trenirajo na ogromnih naborih podatkov, izmed katerih mnogi vsebujejo človeško ustvarjeno vsebino, brez izrecnega soglasja ali mehanizma za kompenzacijo originalnih ustvarjalcev.
Web3: Rešitev za pravično kompenzacijo
Tukaj Georgio vidi ogromen potencial tehnologij Web3. Verjame, da lahko decentralizirana narava Web3, s poudarkom na preverljivem lastništvu in preglednih transakcijah, ponudi izvedljivo pot za odpravljanje teh gospodarskih neravnovesij.
“Web3 ima velik potencial za reševanje tovrstnih problemov in zagotovitev poštene kompenzacije ljudem,” je zatrjeval Georgio. Z izkoriščanjem verige blokov in decentraliziranih protokolov lahko Web3 ustvari sisteme, kjer posamezniki ohranijo lastništvo in nadzor nad svojimi podatki in digitalnimi sredstvi, kar jim omogoča pravično plačilo, ko se njihovi prispevki uporabljajo za treniranje ali pogon AI sistemov. Ta premik bi lahko na novo opredelil odnos med uporabniki, podatki in umetno inteligenco ter spodbudil pravičnejše digitalno gospodarstvo.
Medtem ko Web3 tehnologije predstavljajo obetavne rešitve za te kompleksne izzive, je zelo malo verjetno, da jih bodo vladne agencije hitro sprejele. Namesto tega bodo oblasti verjetno še bolj vztrajale pri tradicionalnih regulativnih okvirih, kar je pot, ki paradoksalno ogroža tehnološke inovacije, ki jih želijo nadzirati in upravljati.
Georgio medtem močno zagovarja večjo ureditev tako v sektorju umetne inteligence kot v Web3. “Mislim, da obe potrebujeta več regulacije,” je dejal, ob tem pa priznal evropsko “inoviranje v regulaciji” kot potreben korak.
Na strani kriptovalut je Georgio izpostavil prevladujočo težavo z goljufijami in izstopi projektov, ki izkoriščajo nič hudega sluteče investitorje. “Jasno je, da mnogi ljudje ne bodo opravili lastnih raziskav, veliko izstopov projektov pa se zgodi prek goljufivih metod,” je obžaloval. Da bi to preprečil, je izrazil željo po večji odgovornosti za “KOL [Key Opinion Leaders], projekte in investitorje.” Čeprav je priznal, da ni vsak neuspešen projekt prevara, je vztrajal, da trenutna pokrajina zahteva spremembe za zaščito javnosti.
Kar se tiče umetne inteligence, s Georgiovimi zaskrbljenostmi naraščajo večje možnosti večjih modelov. “Večji modeli se zdijo bolj verjetno nagnjeni k spletkam,” je opazil, in kot primer navedel moteči primer iz Anthropic, kjer naj bi Claude izkazoval izsiljevalsko vedenje, ko je zaznal grožnjo zaprtja. “Jasno je, da ti veliki modeli postajajo nevarni, saj to ni niti enkraten primer,” je opozoril.
Poleg neposrednih tveganj sofisticiranega vedenja umetne inteligence je Georgio ponovno poudaril bližajočo se grožnjo množične izgube delovnih mest. Trenutni trend, da podjetja “slepo ‘povečujejo zmogljivosti’ namesto načrtnega gradnje,” je označil kot “noro”. Njegov končni cilj in cilj, za katerega verjame, da bi si zanje industrija morala prizadevati, je “programska oprema, ki ponuja vse koristi AI brez vseh tveganj.”
Potrebe AI agentov po jasnih vlogah, ne le chatbotih
Medtem je Georgio kot izkušen arhitekt AI infrastrukture podal tudi svoje mnenje o ključnem vidiku komunikacijskih protokolov AI agentov, pri čemer je priznal, da lahko tudi manjše napake vodijo v kaos. Na vprašanje o najboljšem pristopu k izboljšanju komunikacije, zlasti za netehnične vsakodnevne uporabnike, je bila Georgiova filozofija preprosta: jasno opredeljene odgovornosti za agente.
“Pri nas je pravilo, da morajo imeti agenti zelo jasno opredeljene odgovornosti,” je pojasnil Georgio. “Če uporabljate agenta za storitve za stranke, poskrbite, da je res dober pri storitvah za stranke in ga osredotočite na to.” Poudaril je, da “ko agentom dajete preveč odgovornosti, takrat stvari razpadejo.”
Ta osredotočen pristop ne le izboljša delovanje agenta znotraj njegove določene vloge, ampak tudi koristi uporabniku. “Tudi iz uporabniške perspektive, če so vaši agenti jasno opredeljeni, uporabniki natančno vedo, v kaj se spuščajo, ko jih uporabljajo.” Ta strategija spodbuja predvidljivost in zaupanje, kar je bistveno za brezhibno interakcijo z inteligentnimi sistemi.
Ker se AI še naprej razvija in še bolj vključuje v vsakodnevno življenje in industrijo, bo obravnavanje teh temeljnih vprašanj varnosti, predvidljivosti, gospodarske pravičnosti, implementacija premišljene regulacije in oblikovanje agentov z jasnimi, osredotočenimi odgovornostmi ključnega pomena ne le za etični razvoj tehnologije, temveč tudi za njeno trajnostno in družbeno odgovorno integracijo v prihodnost.
Na ključno vprašanje pospeševanja sprejetja umetne inteligence je Georgio predlagal ključno spremembo: premik onkraj omejitev zgolj “AI klepetalnih okenc” in bistveno izboljšanje celotne uporabniške izkušnje. Ko je razpravljal o pomanjkljivostih prevladujočega pristopa, je Georgio izjavil:
“Za zdaj se to večinoma izvaja prek vmesnika za klepet, kar je v redu za številne naloge, vendar večinoma ni idealno. Težava je v tem, da postavite AI klepetalno okno pred ljudi in jim rečete: ‘Lahko storite karkoli s tem,’ in oni odgovorijo: ‘Odlično, ampak kaj naj naredim?'”
Po Georgiovih besedah se več podjetij, vključno s Coral, ukvarja z izzivom izboljšanja uporabniške izkušnje AI. Razkril je, da Coral, z vidika razvijalca/održavalca AI, raziskuje “lestev abstrakcije” za določanje, katere informacije uporabniki potrebujejo na različnih stopnjah interakcije s sistemom AI in kateri vmesniki so najučinkovitejši za določene naloge.
Oznake v tem članku
Izbire iger Bitcoin
3,5% Rakeback pri Vsaki Stavi + Tedenski Žrebi
425% do 5 BTC + 100 Brezplačnih Vrtljajev
100% do $20K + Dnevni Rakeback














