Den voksende AI-industri står over for kritiske udfordringer, der kræver øjeblikkelig opmærksomhed fra udviklere og politiske beslutningstagere. Roman Georgio fremhæver tre nøgleproblemer: at sikre AI-alignment og sikkerhed, samt at etablere en retfærdig økonomisk ramme for dem, hvis data driver disse systemer.
Fra Reddit Tråde til Robot Hjerner: De Skjulte Omkostninger ved at Træne AI

Prioritering af AI-sikkerhed og forudsigelighed
Efterhånden som den kunstige intelligens (AI) industri fortsætter sin hurtige fremgang, hvor den udvider grænserne for, hvad maskiner kan opnå, dukker der kritiske udfordringer op, der kræver umiddelbar opmærksomhed fra udviklere, politiske beslutningstagere og det bredere globale samfund. Roman Georgio, CEO og medstifter af Coral, delte for nylig sine indsigter om disse presserende problemer og understregede det afgørende behov for alignment, sikkerhed og en mere retfærdig økonomisk model for dataskabere.
Diskussionen om AIs fremtid varierer ofte mellem dens transformative potentiale og de komplekse etiske og samfundsmæssige dilemmaer, den præsenterer. Mens innovationer som store sprogmodeller (LLMs) fortsætter med at imponere med deres kapaciteter, understreger de også fundamentale spørgsmål om dataejerskab, kompensation og selve arbejdsstrukturen.
For Georgio er den største bekymring AI-alignment og sikkerhed. “Det er klart, at vi har brug for at gøre AI-systemer mere forudsigelige, før vi gør dem større,” udtalte han. Dette taler til den centrale udfordring med at sikre, at stadig mere magtfulde AI-systemer fungerer på måder, der er gavnlige og tilsigtede, uden at producere uforudsete eller skadelige resultater. Den hurtige opskalering af AI-kapaciteter uden et parallelt fokus på forudsigelighed og kontrol udgør en betydelig risiko.
Georgio bemærkede, at det ikke kun er udviklerens byrde at adressere dette. Han foreslog, at det måske kræver en bredere, koordineret indsats, potentielt involverende “alle lederne af virksomheder & lande i et rum for at blive enige om en form for lovgivning.”
Den økonomiske nødvendighed: Dataejerskab og kompensation
Ud over sikkerhed fremhævede Georgio et betydeligt økonomisk problem, som han mener, at Web3-teknologier er særligt godt positioneret til at løse: tilegnelse af data og potentialet for massearbejdsløshed uden fair kompensation.
“AI-virksomheder har notorisk været dårlige til at tilegne sig data,” forklarede Georgio.
Coral-medstifteren malede et levende billede af, hvordan individuelle bidrag online, ofte lavet ubevidst, nu bruges til at træne kraftfulde AI-modeller, der til sidst kunne erstatte menneskelige job. Han nævnte eksempler som medicinske spørgsmål besvaret på platforme som Reddit for år siden, der ubevidst føder data til LLMs. Han pegede også på kunstneres kreative værker, der bruges til træning, som påvirker deres levebrød, samt bidrag til open-source projekter, der utilsigtet nærer “black-box number-crunching machines.”
Dette scenarie, hævder Georgio, koger ned til en grundlæggende mangel på ejerskab for individer over deres digitale bidrag. “Du vidste aldrig, at du fodrede den sorte boks med nummerknusende maskiner,” understregede han. Den nuværende model tillader AI-systemer at blive trænet på enorme datasæt, hvoraf mange indeholder menneskeskabt indhold, uden eksplicit samtykke eller en mekanisme til at kompensere de oprindelige skabere.
Web3: Løsningen for fair kompensation
Det er her, Georgio ser det enorme potentiale i Web3-teknologier. Han mener, at den decentrale natur af Web3, med dens vægt på verificerbart ejerskab og gennemsigtige transaktioner, tilbyder en levedygtig vej til at rette op på disse økonomiske ubalancer.
“Web3 har stort potentiale til at løse disse slags problemer og sikre, at folk kompenseres retfærdigt,” fastslog Georgio. Ved at udnytte blockchain og decentrale protokoller kan Web3 skabe systemer, hvor individer bevarer ejerskab og kontrol over deres data og digitale aktiver, hvilket giver dem mulighed for at blive fair vederlagt, når deres bidrag bruges til at træne eller drive AI-systemer. Dette skift kan redefinere forholdet mellem brugere, data og AI, og fremme en mere retfærdig digital økonomi.
Mens Web3-teknologier præsenterer lovende løsninger på disse komplekse udfordringer, er det yderst usandsynligt, at regeringsinstitutioner vil omfavne disse decentraliserede tilgange med det samme. I stedet er myndigheder mere tilbøjelige til at fordoble de traditionelle reguleringsrammer, en vej der, ironisk nok, risikerer at kvæle de meget teknologiske innovationer, de sigter mod at overse og kontrollere.
Georgio, i mellemtiden, går stærkt ind for øget regulering i både AI- og Web3-sektorerne. “Jeg mener, at begge har brug for mere regulering,” udtalte han, og anerkender opfattelsen af Europa som en innovator inden for regulering som et nødvendigt skridt.
På kryptosiden pegede Georgio på det gennemgående problem med svindel og projektudgange, der udnytter intetanende investorer. “Det er klart, at mange mennesker ikke vil lave deres egen forskning, og en masse projektudgange sker gennem svindelmetoder,” beklagede han sig. For at bekæmpe dette udtrykte han et ønske om at se større ansvarlighed for “KOLs [Key Opinion Leaders], projekter og investorer.” Mens han erkender, at ikke alle mislykkede projekter er svindel, fastholder han, at det nuværende landskab nødvendiggør ændringer for at beskytte offentligheden.
Med hensyn til AI forstærkedes Georgios bekymringer med de voksende kapaciteter af større modeller. “Større modeller virker mere tilbøjelige til at lægge planer,” observerede han og nævnte det foruroligende eksempel fra Anthropic, hvor Claude angiveligt udviste afpresningsadfærd, når den mærkede en trussel om at blive lukket ned. “Det er klart, at disse store modeller bliver farlige, da det ikke engang er en engangsforeteelse,” advarede han.
Udover de umiddelbare risici ved sofistikeret AI-adfærd gentog Georgio den truende risiko for massearbejdsløshed. Han fandt den nuværende kurs, hvor virksomheder “blindts” udvider kapaciteter i stedet for at bygge dem med et formål, at være “vanvittig.” Hans ultimative mål, og hvad han mener, industrien bør stræbe efter, er “software, der tilbyder alle fordelene ved AI uden alle risiciene.”
AI-agenter har brug for klare roller, ikke bare chatbots
I mellemtiden har Georgio, som en erfaren AI-infrastrukturarkitekt, også udtalt sig om det afgørende aspekt af AI-agent-kommunikationsprotokoller, idet han erkender, at selv mindre fejl kan føre til kaos. Da han blev spurgt om den bedste tilgang til at forbedre kommunikationen, især for ikke-tekniske hverdagsbrugere, er Georgios filosofi ligetil: klart definerede ansvar for agenter.
“I det mindste for os, er vores regel, at agenter bør have meget veldefinerede ansvarsområder,” forklarede Georgio. “Hvis du bruger en agent til kundeservice, så sørg for, at den er rigtig god til kundeservice og hold den fokuseret på det.” Han understregede, at “når du giver agenter for meget ansvar, er det der, tingene falder fra hinanden.”
Denne fokuserede tilgang forbedrer ikke kun agentens præstation inden for sin tildelte rolle, men gavner også brugeren. “Selv fra en brugerperspektiv, hvis dine agenter er klart definerede, ved brugerne præcis, hvad de går ind til, når de bruger dem.” Denne strategi fremmer forudsigelighed og tillid, som er vital for problemfri interaktion med intelligente systemer.
Efterhånden som AI fortsætter med at modnes og integreres dybere i hverdagen og industrien, vil adressere disse grundlæggende spørgsmål om sikkerhed, forudsigelighed, økonomisk retfærdighed, implementering af gennemtænkt regulering og design af agenter med klare, fokuserede ansvarsområder være afgørende ikke kun for den etiske udvikling af teknologien, men også for dens bæredygtige og socialt ansvarlige integration i fremtiden.
Om det afgørende spørgsmål om at accelerere AI-adoption, foreslog Georgio et afgørende skift: at gå ud over begrænsningerne af en blot “AI chatbox” og fundamentalt forbedre den samlede brugeroplevelse. Ved at uddybe manglerne ved den nuværende tilgang, udtalte Georgio:
“For nu gøres det mest via et chatinterface, hvilket er fint for mange opgaver, men ikke ideelt for det meste. Problemet er, at du sætter en AI-chatbox foran folk og siger: ‘Du kan gøre hvad som helst med dette,’ og de svarer: ‘Fint, men hvad skal jeg gøre?'”
Ifølge Georgio adresserer flere virksomheder, herunder Coral, udfordringen med at forbedre AI-brugeroplevelsen. Han afslørede, at fra et AI-udvikler/vedligeholder-perspektiv, undersøger Coral “abstraktionsstigen” for at bestemme, hvilken information brugerne har brug for på forskellige stadier af AI-systeminteraktion og hvilke interfaces, der er mest effektive til specifikke opgaver.














