Under den amerikanska valkampanjen 2024 spreds en deepfake video över sociala medier, som felaktigt påstod valfusk. På annat håll har partiska data inom sjukvården förvrängt AI-resultat och äventyrat patientvården. Ogenomskinliga algoritmer undergräver beslut, destabiliserar marknader och urholkar förtroendet för finansiella system. Riskerna med AI ökar, och dess brister naggar allmänhetens förtroende i kanten.
DLT kommer att återuppbygga förtroendet för AI
Denna artikel publicerades för mer än ett år sedan. Viss information kanske inte längre är aktuell.

Följande är ett gästinlägg skrivet av Charles Adkins, VD för HBAR Foundation. Han var tidigare president för Hedera Hashgraph, LLC. Charles är en erfaren ledare med många års erfarenhet inom blockchain- och kryptoområdet, och har tidigare arbetat på Polygon Labs och Aptos.
Vi behöver en styrning som säkerställer att AI tjänar mänskligheten och inte skadar den. Men omfattningen och komplexiteten av AI-utvecklingen överstiger mänsklig kapacitet ensam. Ange Distributed Ledger Technology (DLT) – ett decentraliserat system som registrerar och verifierar data över flera noder. DLT ger transparens, ansvarsskyldighet och integritet till AI, främjar förtroende, förhindrar monopolistisk kontroll och uppmuntrar etisk innovation.
Bryta upp ‘svarta lådan’ i AI
AI fungerar ofta som en svart låda och förlitar sig på hemliga data som döljer hur beslut fattas. Denna opacitet undergräver förtroendet, särskilt inom industrier som sjukvård och finans där transparens är icke-förhandlingsbar. Med DLT finns det inga hemligheter. DLT förändrar spelet genom att registrera all data och uppdateringar på en oföränderlig ledger – en permanent, digital post som säkerställer att varje förändring är spårbar.
Ta till exempel ProveAI. Det använder DLT för att säkra och spåra AI-träningsdata och uppdateringar, vilket säkerställer efterlevnad av etiska standarder och regler som EU:s AI-lag. Denna metod håller AI-modeller ansvariga och skapar en grund för förtroende och rättvisa i deras resultat.
Förbättra datakvalitet med DLT
Tyvärr kvarstår dålig datakvalitet som en ihärdig utmaning inom AI-utveckling. En Precisely-undersökning 2024 visade att 64 % av företagen anser att AI är opålitlig på grund av okontrollerade eller partiska data. DLT åtgärdar detta genom att förankra realtidsdata till decentraliserade nätverk, vilket säkerställer att data är korrekta, transparenta och oföränderlig.
För AI-modeller som de som utnyttjar Retrieval Augmented Generation (RAG) för att förbättra svar med extern data, ser DLT till att endast verifierad, manipulationssäker information används. Detta minimerar risken för att desinformation eller partiskhet infiltrerar resultaten, vilket främjar etisk AI-styrning.
Fetch.ai och Ocean Protocol visar redan potentialen hos denna innovation. Fetch.ai använder orakler för att komma åt realtidsdata, optimera logistik och energieffektivitet i Web3-ekosystemet. Ocean Protocol, å andra sidan, säkrar tokeniserad datadelning och möjliggör för AI-system att få tillgång till högkvalitativa datamängder samtidigt som användarnas integritet skyddas.
Bekämpa desinformation med DLT
Dessa funktioner är avgörande för att bekämpa eskalerande utmaningar som desinformation, särskilt med ökningen av deepfakes. Ofcom avslöjade nyligen att 43 % av personer över 16 år stött på minst en deepfake online under första halvan av 2024. Blockchain-plattformar som Truepic hanterar redan detta problem genom att kombinera blockchain med bildautentisering, tidsstämplar och verifiering av media vid skapandet. Genom att integrera verifierade data och media i RAG-arbetsflöden kan AI-system mer effektivt faktakontrollera resultat, vilket stärker förtroendet för den information de genererar.
Decentraliserad styrning för etisk AI
Centraliserade styrmodeller har ofta svårt att hantera AI-utvecklingens hastighet, komplexitet och etiska utmaningar, vilket hindrar ansvarsfull innovation. Precisely:s globala undersökning avslöjade att 62 % av organisationerna ser otillräcklig styrning som ett stort hinder för AI-antagande.
Decentralized Autonomous Organizations (DAOs), drivna av DLT, kan erbjuda en lösning. DAOs automatiserar styrning och beslutsfattande genom smarta kontrakt, vilket gör det möjligt för intressenter – utvecklare, användare och tillsynsmyndigheter – att rösta transparent om förslag. Varje beslut registreras på blockchain, förhindrar ensidig kontroll, linjerar beslut med kollektiva intressen och säkerställer ansvarsskyldighet och inklusivitet.
SingularityNET visar denna potential genom att använda en DAO-ramverk för att anpassa AI-projekt med etiska principer. Detta decentraliserade tillvägagångssätt främjar inte bara inklusivitet utan säkerställer också att styrningen återspeglar allmänhetens intresse, och lägger grunden för skalbar, etisk AI-utveckling.
Globala standarder och vägen framåt
Eftersom AI i allt högre grad är beroende av gränsöverskridande data, kommer säkra och transparenta system som DLT att vara avgörande för att bygga förtroende i stor skala. Många organisationer undersöker redan dess potential. Till exempel använder MediLedger Network DLT för att förhindra manipulation av data i läkemedelsleveranskedjor, medan Europeiska blockkedjetjänstinfrastrukturen (EBSI) utnyttjar DLT för säker informationsdistribution, vilket potentiellt ger en ram som kan hjälpa EU-organisationer att uppfylla den senaste EU AI-aktens krav.
Men vi behöver gå längre.
Global regleringssamordning är avgörande för att förhindra fragmentering och etablera universella standarder. Regeringar, företag och det civila samhället måste samarbeta för att utveckla styrningsramar som prioriterar allmänintresset. DAOs måste också utvecklas för att ge flexibel, kollektiv tillsyn när AI-tekniken avancerar.
Det här är inte tiden för likgiltighet. Om inget görs nu kommer AI:s risker att öka okontrollerat, vilket lämnar oss maktlösa att hantera dem. Framtiden för etisk AI beror på djärva beslut idag. DLT kan vara grunden för denna framtid – transparens, ansvarighet och i linje med mänsklighetens bästa intressen.














