Den raskt voksende AI-industrien står overfor kritiske utfordringer som krever umiddelbar oppmerksomhet fra utviklere og beslutningstakere. Roman Georgio fremhever tre viktige bekymringer: å sikre AI-justering og sikkerhet, samt etablere et rettferdig økonomisk rammeverk for dem hvis data driver disse systemene.
Fra Reddit Tråder til Robot Sinn: De Skjulte Kostnadene ved Å Trene AI

Prioritere AI-sikkerhet og forutsigbarhet
Etter hvert som kunstig intelligens (AI)-industrien fortsetter sin raske vekst, og presser grensene for hva maskiner kan oppnå, dukker det opp kritiske utfordringer som krever øyeblikkelig oppmerksomhet fra utviklere, beslutningstakere og det bredere globale samfunnet. Roman Georgio, administrerende direktør og medgrunnlegger av Coral, delte nylig sine innsikter om disse påtrengende problemene, med vekt på det avgjørende behovet for justering, sikkerhet og en mer rettferdig økonomisk modell for dataskapere.
Diskusjonen rundt AIs fremtid svinger ofte mellom dens transformative potensial og de komplekse etiske og samfunnsmessige dilemmaene den presenterer. Mens innovasjoner som store språkmodeller (LLMs) fortsetter å imponere med sine evner, understreker de også grunnleggende spørsmål om dataeierskap, kompensasjon og selve strukturen av arbeid.
For Georgio er den viktigste bekymringen AI-justering og sikkerhet. “Det er klart vi må gjøre AI-systemer mer forutsigbare før vi gjør dem større,” uttalte han. Dette peker på kjernen i utfordringen med å sikre at stadig kraftigere AI-systemer opererer på måter som er fordelaktige og tilsiktede, uten å produsere uforutsette eller skadelige utfall. Den raske skaleringen av AI-funksjoner, uten en parallell fokus på forutsigbarhet og kontroll, utgjør en betydelig risiko.
Georgio bemerket at å adressere dette ikke bare er utviklerens byrde. Han foreslo at det kan kreve en bredere, koordinert innsats, muligens involvere “alle lederne av selskaper & land i et rom for å bli enige om en form for lovgivning.”
Det økonomiske imperativet: Dataeierskap og Kompensasjon
Utover sikkerhet fremhevet Georgio et betydelig økonomisk problem som han mener Web3-teknologier er unikt posisjonert til å løse: tilegnelsen av data og potensialet for massiv jobbfortrengning uten rettferdig kompensasjon.
“AI-selskaper har notorisk vært ganske dårlige til å tilegne seg data,” forklarte Georgio.
Coral-medgründeren malte et levende bilde av hvordan individuelle bidrag på nettet, ofte gjort uten å vite det, nå brukes til å trene kraftige AI-modeller som til slutt kunne erstatte menneskelige jobber. Han nevnte eksempler som medisinske spørsmål besvart på plattformer som Reddit for år siden, uvitende fôrer data til LLMs. Han pekte også på kunstneres kreative arbeider som brukes til trening, som påvirker deres levebrød, samt bidrag til åpen kildekode-prosjekter, uforvarende drivende “black-box tallknusende maskiner.”
Dette scenariet, argumenterer Georgio, koker ned til en grunnleggende mangel på eierskap for enkeltpersoner over deres digitale bidrag. “Du visste aldri at du matet black-box tallknusende maskinen,” understreket han. Den nåværende modellen tillater AI-systemer å bli trent på store datasett, hvorav mange inneholder innhold generert av mennesker, uten eksplisitt samtykke eller en mekanisme for å kompensere de opprinnelige skaperne.
Web3: Løsningen for Rettferdig Kompensasjon
Det er her Georgio ser det enorme potensialet i Web3-teknologier. Han mener den desentraliserte naturen til Web3, med sin vekt på verifiserbart eierskap og transparente transaksjoner, tilbyr en levedyktig vei for å rette opp disse økonomiske ubalansene.
“Web3 har stort potensial for å løse denne typen problemer og sikre at folk blir rettferdig kompensert,” hevdet Georgio. Ved å utnytte blockchain og desentraliserte protokoller, kan Web3 skape systemer hvor enkeltpersoner beholder eierskap og kontroll over sine data og digitale eiendeler, slik at de kan bli rettferdig vederlagt når deres bidrag brukes til å trene eller drive AI-systemer. Dette skiftet kan redefinere forholdet mellom brukere, data og AI, og fremme en mer rettferdig digital økonomi.
Mens Web3-teknologier presenterer lovende løsninger på disse komplekse utfordringene, er det høyst usannsynlig at myndighetsorganer vil omfavne disse desentraliserte tilnærmingene med det samme. I stedet er myndighetene mer tilbøyelige til å satse på tradisjonelle reguleringsrammer, en sti som ironisk nok kan hemme de teknologiske innovasjonene de ønsker å overvåke og kontrollere.
Georgio, derimot, er en sterk forkjemper for økt regulering i både AI- og Web3-sektoren. “Jeg tror begge trenger mer regulering,” uttalte han, og anerkjenner oppfatningen av at Europa “innoverer i regulering” som et nødvendig steg.
På kryptosiden pekte Georgio på det utbredte problemet med svindel og prosjekter som avsluttes på måter som utnytter intetanende investorer. “Det er klart at mange mennesker ikke gjør sin egen forskning, og mange prosjektavslutninger skjer gjennom svindelmetoder,” beklaget han. For å bekjempe dette uttrykte han et ønske om å se større ansvarlighet for “KOLs [Key Opinion Leaders], prosjekter og investorer.” Mens han erkjente at ikke alle mislykkede prosjekter er svindel, mente han at det nåværende landskapet krever endring for å beskytte offentligheten.
Når det gjelder AI, skjerpes Georgios bekymringer med de økende evnene til større modeller. “Større modeller virker mer tilbøyelige til å legge planer,” observerte han, og siterte det urovekkende eksemplet fra Anthropic hvor Claude angivelig viste utpressingsadferd når han fornemmet trusselen om å bli stengt ned. “Det er klart at disse store modellene blir farlige, da dette ikke engang er en engangshendelse,” advarte han.
Utover de umiddelbare risikoene ved sofistikert AI-adferd, gjentok Georgio den truende trusselen om massetap av arbeidsplasser. Han fant den nåværende bane med å la selskaper “blindly ‘grow capabilities’ i stedet for målrettet bygge dem” som “gal.” Hans ultimate mål, og hva han mener industrien bør strebe etter, er “programvare som tilbyr alle fordelene med AI uten alle risikoene.”
AI-agenter trenger klare roller, ikke bare chatboter
I mellomtiden, som en erfaren arkitekt innen AI-infrastruktur, veide Georgio også inn på det avgjørende aspektet av AI-agentkommunikasjonsprotokoller, og innså at selv mindre feil kan føre til kaos. Når han ble spurt om den beste tilnærmingen for å forbedre kommunikasjonen, spesielt for ikke-tekniske hverdagsbrukere, er Georgios filosofi enkel: klart definerte ansvarsområder for agenter.
“Minst for oss, er vår regel at agenter bør ha svært godt definerte ansvarsområder,” forklarte Georgio. “Hvis du bruker en agent til kundeservice, sørg for at den er virkelig god på kundeservice og hold den fokusert på det.” Han understreket at “når du gir agenter for mye ansvar, er det da ting faller fra hverandre.”
Denne fokuserte tilnærmingen forbedrer ikke bare agentens ytelse innenfor sin tildelte rolle, men kommer også brukeren til gode. “Selv fra et brukerperspektiv, hvis agentene dine er klart definerte, vet brukerne nøyaktig hva de gir seg inn på når de bruker dem.” Denne strategien fremmer forutsigbarhet og tillit, som er avgjørende for sømløs interaksjon med intelligente systemer.
Etter hvert som AI fortsetter å modnes og integreres dypere i dagliglivet og industrien, vil det være avgjørende å adressere disse grunnleggende spørsmålene om sikkerhet, forutsigbarhet, økonomisk rettferdighet, gjennomføre gjennomtenkt regulering og designe agenter med klare, fokuserte ansvarsområder ikke bare for den etiske utviklingen av teknologien, men også for dens bærekraftige og sosialt ansvarlige integrasjon i fremtiden.
I det avgjørende spørsmålet om å akselerere AI-adopsjon, foreslo Georgio et viktig skift: å gå utover begrensningene av en ren “AI-chatboks” og fundamentalt forbedre den generelle brukeropplevelsen. Da han utdypet manglene ved den rådende tilnærmingen, hevdet Georgio:
“For nå gjøres det for det meste via en chat-grensesnitt, som er fint for mange oppgaver, men ikke ideelt for det meste. Problemet er at du setter en AI-chatboks foran folk og sier ‘Du kan gjøre hva som helst med dette,’ og de svarer ‘Flott, men hva skal jeg gjøre?'”
Ifølge Georgio adresserer flere selskaper, inkludert Coral, utfordringen med å forbedre AI-brukeropplevelsen. Han avslørte at fra et AI-utvikler/vedlikeholder perspektiv, undersøker Coral “abstraksjonsstigen” for å bestemme hvilken informasjon brukere trenger på forskjellige stadier av AI-systeminteraksjon og hvilke grensesnitt som er mest effektive for spesifikke oppgaver.
Tags i denne artikkelen
Bitcoin spillvalg
425% opp til 5 BTC + 100 Gratisspinn















