Under den amerikanske valgkampagne i 2024 spredte en deepfake-video sig på sociale medier og påstod falsk valgsvindel. Andre steder har partisk data inden for sundhedspleje skævvredet AI-resultater, hvilket skader patientplejen. Uigennemsigtige algoritmer undergraver beslutninger, destabiliserer markeder og underminerer tilliden til finansielle systemer. AI’s risici eskalerer, og dets fejl æder sig ind i offentlighedens tillid.
DLT vil genopbygge tillid til AI
Denne artikel blev publiceret for mere end et år siden. Nogle oplysninger er muligvis ikke aktuelle.

Det følgende er et gæsteindlæg skrevet af Charles Adkins, CEO, HBAR Foundation. Han har tidligere været præsident for Hedera Hashgraph, LLC. Charles er en erfaren leder med mange års erfaring inden for blockchain og kryptovaluta, og har tidligere arbejdet hos Polygon Labs og Aptos.
Vi har brug for styring, der sikrer, at AI tjener menneskeheden og ikke skader den. Men skalaen og kompleksiteten i AI-udviklingen er uden for menneskelig kapacitet alene. Træd ind i Distributed Ledger Technology (DLT)—et decentraliseret system, der registrerer og verificerer data på tværs af flere noder. DLT bringer gennemsigtighed, ansvarlighed og integritet til AI, fremmer tillid, forhindrer monopolistisk kontrol og opmuntrer til etisk innovation.
Åbning af AI ‘Black Box’
AI fungerer ofte som en black box, der benytter hemmelighedsfulde data, der skjuler, hvordan beslutninger træffes. Denne uklarhed undergraver tillid, især i industrier som sundhed og finans, hvor gennemsigtighed er ufravigeligt. Med DLT er der ingen hemmeligheder. DLT ændrer spillet ved at registrere alle data og opdateringer på en uforanderlig hovedbok—a permanent digital registrering, der sikrer, at enhver ændring kan spores.
Tag for eksempel ProveAI. Den bruger DLT til at sikre og spore AI-træningsdata og opdateringer, hvilket sikrer overholdelse af etiske standarder og reguleringer som EU’s AI-lov. Denne tilgang gør AI-modeller ansvarlige og skaber en base for tillid og retfærdighed i deres resultater.
Forbedring af datakvalitet med DLT
Desværre forbliver dårlig datakvalitet en vedvarende udfordring i AI-udviklingen. En 2024-undersøgelse fra Precisely afslørede, at 64% af virksomhederne finder AI upålidelig på grund af ikke-verificerede eller forudindtagede data. DLT adresserer dette ved at forankre realtidsdata til decentrale netværk, hvilket sikrer, at de er nøjagtige, gennemsigtige og uforanderlige.
For AI-modeller, som dem der bruger Retrieval Augmented Generation (RAG) til at forbedre svar med eksterne data, sikrer DLT, at kun verificerede, manipulationssikre informationer anvendes. Dette minimerer risikoen for misinformation eller bias, der infiltrerer resultater, og fremmer etisk AI-styring.
Fetch.ai og Ocean Protocol viser allerede potentialet for denne innovation. Fetch.ai bruger orakler til at få adgang til realtids eksterne data og optimere logistik og energieffektivitet i hele Web3 økosystemet. Ligeledes sikrer Ocean Protocol tokeniseret datadeling, der gør det muligt for AI-systemer at få adgang til højtkvalitets datasæt, samtidig med at brugernes privatliv beskyttes.
Bekæmpelse af misinformation med DLT
Disse muligheder er essentielle for at tackle eskalerende udfordringer som misinformation, især midt i stigningen af deepfakes. Ofcom afslørede for nylig, at 43% af personer over 16 år stødte på mindst én deepfake online i første halvdel af 2024. Blockchain-platforme som Truepic tackler allerede dette problem ved at kombinere blockchain med billedautentifikation, tidsstempling og verificering af medier ved oprettelsestidspunktet. Ved at integrere verificeret data og medier i RAG-arbejdsgange, kan AI-systemer mere effektivt faktatjekke output, hvilket styrker tilliden til de informationer, de genererer.
Decentraliseret styring for etisk AI
Centraliserede styringsmodeller kæmper ofte med at håndtere hastigheden, kompleksiteten og de etiske udfordringer ved AI-udvikling, hvilket hæmmer ansvarlig innovation. Preciselys globale undersøgelse afslørede, at 62% af organisationer ser mangelfuld styring som en større forhindring for AI-adoption.
Decentraliserede autonome organisationer (DAOs), drevet af DLT, kan give en løsning. DAOs automatiserer styring og beslutningstagning gennem smart contracts, hvilket gør det muligt for interessenter—udviklere, brugere og regulatorer—at stemme transparent på forslag. Hver beslutning registreres på blockchainen, hvilket forhindrer ensidig kontrol, justerer beslutninger med kollektive interesser og sikrer ansvarlighed og inklusivitet.
SingularityNET viser dette potentiale ved at bruge en DAO-ramme til at justere AI-projekter med etiske principper. Denne decentrale tilgang fremmer ikke kun inklusivitet, men sikrer, at styring afspejler den offentlige interesse og lægger grunden til skalerbar, etisk AI-udvikling.
Globale standarder og vejen frem
Efterhånden som AI i stigende grad afhænger af grænseoverskridende data, vil sikre og gennemsigtige systemer som DLT være essentielle for at opbygge tillid i stor skala. Mange organisationer udforsker allerede dets potentiale. For eksempel bruger MediLedger Network DLT til at forhindre datamanipulation i farmaceutiske forsyningskæder, mens den Europæiske Blockchain Services Infrastructure (EBSI) udnytter DLT til sikker informationsdistribution, potentielt giver en ramme, der kan hjælpe EU-organisationer med at overholde den nylige EU AI-lov.
Men vi skal gå videre.
Global reguleringsharmonisering er afgørende for at forhindre fragmentering og etablere universelle standarder. Regeringer, virksomheder og det civile samfund skal samarbejde for at udvikle styrelsesrammer, der prioriterer den offentlige interesse. DAOs skal også udvikle sig for at give fleksibel, kollektiv overvågning, efterhånden som AI-teknologien avancerer.
Dette er ikke tiden til selvtilfredshed. Hvis der ikke handles nu, vil AI’s risici vokse ukontrolleret, og vi vil være magtesløse over for at imødegå dem. Fremtiden for etisk AI afhænger af modige beslutninger i dag. DLT kan være grundlaget for denne fremtid—gennemsigtig, ansvarlig og i tråd med menneskehedens bedste interesser.













