Drevet av
Op-Ed

DLT Vil Gjenoppbygge Tillit i AI

Denne artikkelen ble publisert for mer enn et år siden. Noe informasjon er kanskje ikke lenger aktuell.

Under valgkampanjen i USA i 2024 spredte en deepfake video seg over sosiale medier, med falske anklager om valgfusk. Andre steder har skjev data i helsevesenet forvrengt AI-resultater, og satt pasientbehandling i fare. Ugjennomsiktige algoritmer undergraver beslutninger, destabiliserer markeder, og undergraver tilliten til finansielle systemer. AI sine risikoer øker, og dens feil gnager på offentlig tillit.

SKREVET AV
DEL
DLT Vil Gjenoppbygge Tillit i AI
Følgende er et gjesteinnlegg skrevet av Charles Adkins, administrerende direktør, HBAR Foundation. Han har tidligere vært president for Hedera Hashgraph, LLC. Charles er en erfaren leder med mange års erfaring innen blokkjedeteknologi og kryptosfæren, og har tidligere jobbet hos Polygon Labs og Aptos.

Vi trenger styring som sikrer at AI tjener menneskeheten, ikke skader den. Men omfanget og kompleksiteten av AI-utvikling er utover menneskelig kapasitet alene. Her kommer Distribuert Ledger Teknologi (DLT) inn—et desentralisert system som registrerer og verifiserer data over flere noder. DLT bringer transparens, ansvarlighet og integritet til AI, fremmer tillit, hindrer monopolistisk kontroll og oppmuntrer til etisk innovasjon.

Å åpne AI ‘Black Box’

AI opererer ofte som en “svart boks”, og stoler på hemmelige data som skjuler hvordan beslutninger tas. Denne ugjennomsiktigheten undergraver tillit, spesielt i industrier som helsevesen og finans hvor åpenhet er ikke-forhandlingsbart. Med DLT finnes det ingen hemmeligheter. DLT endrer spillet ved å registrere all data og oppdateringer på en uforanderlig ledger—en permanent, digital oversikt som sikrer at hver endring er sporbar.

Ta for eksempel ProveAI. Det bruker DLT for å sikre og spore AI treningsdata og oppdateringer, og sikrer overholdelse av etiske standarder og forskrifter som EU AI Act. Denne tilnærmingen holder AI-modeller ansvarlige, og skaper et grunnlag for tillit og rettferdighet i deres utfall.

Forbedring av Data Kvalitet med DLT

Dessverre forblir dårlig datakvalitet en vedvarende utfordring i AI-utvikling. En 2024 Precisely undersøkelse avdekket at 64% av bedriftene finner AI upålitelig på grunn av uverifisert eller skjev data. DLT adresserer dette ved å forankre sanntidsdata til desentraliserte nettverk, og sikrer at den er korrekt, transparent og uforanderlig.

For AI-modeller som bruker Retrieval Augmented Generation (RAG) for å forbedre svar med ekstern data, sikrer DLT at kun verifisert, manipulasjonssikker informasjon brukes. Dette minimerer risikoen for at feilinformasjon eller skjevheter infiltrerer utfall, og fremmer etisk AI-styring.

Fetch.ai og Ocean Protocol viser allerede potensialet i denne innovasjonen. Fetch.ai bruker orakler for å få tilgang til sanntidsdata, optimalisere logistikk og energieffektivitet over Web3-økosystemet. Tilsvarende sikrer Ocean Protocol tokenisert datadeling, som gjør det mulig for AI-systemer å få tilgang til datasett av høy kvalitet samtidig som brukernes personvern beskyttes.

Bekjempelse av Feilinformasjon Med DLT

Disse kapasitetene er essensielle for å takle eskalerende utfordringer som feilinformasjon, spesielt i lys av økningen i deepfakes. Ofcom har nylig avdekket at 43% av personer over 16 år hadde møtt minst én deepfake online i første halvdel av 2024. Blokkjedeplattformer som Truepic adresserer allerede dette problemet ved å kombinere blokkjede med bildeautentisering, tidsstempling, og verifisering av media i det øyeblikket de opprettes. Ved å integrere verifisert data og media i RAG-arbeidsflyter, kan AI-systemer mer effektivt faktasjekke utfall, og styrke tillit til informasjonen de genererer.

Desentralisert Styring for Etisk AI

Sentraliserte styringsmodeller sliter ofte med å håndtere farten, kompleksiteten og de etiske utfordringene i AI-utvikling, noe som hindrer ansvarlig innovasjon. Precisely sin globale undersøkelse avdekket at 62% av organisasjonene ser utilstrekkelig styring som en betydelig hindring for AI-adopsjon.

Desentraliserte Autonome Organisasjoner (DAOs), drevet av DLT, kan gi en løsning. DAOs automatiserer styring og beslutningstaking gjennom smarte kontrakter, som gjør det mulig for interessenter—utviklere, brukere og regulatorer—å stemme transparent over forslag. Hver beslutning registreres i blokkjeden, forhindrer ensidig kontroll, justerer beslutninger med kollektive interesser, og sikrer ansvarlighet og inkludering.

SingularityNET viser dette potensialet ved å bruke en DAO-rammeverk for å justere AI-prosjekter med etiske prinsipper. Denne desentraliserte tilnærmingen fremmer ikke bare inkludering, men sikrer at styring reflekterer offentlig interesse, og legger grunnlaget for skalerbar, etisk AI-utvikling.

Globale Standarder og Veien Videre

Ettersom AI i økende grad er avhengig av grenseoverskridende data, vil sikre og transparente systemer som DLT være essensielle for å bygge tillit i stor skala. Mange organisasjoner utforsker allerede dets potensial. For eksempel bruker MediLedger Network DLT for å forhindre datamanipulering i farmasøytiske forsyningskjeder, mens den Europeiske Blokkjede Tjeneste Infrastruktur (EBSI) utnytter DLT for sikker informasjonsdistribusjon, og gir potensielt et rammeverk for å hjelpe EU-organisasjoner med å overholde den nylige EU AI-loven.

Men vi må gå videre.

Global regulatorisk tilpasning er avgjørende for å forhindre fragmentering og etablere universelle standarder. Regjeringer, bedrifter og sivilsamfunnet må samarbeide for å utvikle styringsrammer som prioriterer offentlig interesse. DAOs må også utvikle seg for å gi fleksibel, kollektiv overvåkning ettersom AI-teknologien fremskrider.

Det er ikke tid for selvtilfredshet. Hvis handling ikke tas nå, vil AI-risikoene vokse ukontrollert, og etterlate oss maktesløse til å adressere dem. Fremtiden for etisk AI avhenger av dristige beslutninger i dag. DLT kan være grunnlaget for denne fremtiden—transparent, ansvarlig og i tråd med menneskehetens beste interesser.

Tags i denne artikkelen