2024年の米国選挙キャンペーン中に、フェイクのビデオがソーシャルメディアで広まり、投票不正を偽って主張しました。その一方で、ヘルスケアのバイアスデータがAIの結果を歪め、患者ケアを危険にさらしています。不透明なアルゴリズムが意思決定を妨げ、市場を不安定にし、金融システムへの信頼を失わせます。AIのリスクはエスカレートしており、その欠陥が公共の信頼を蝕んでいます。
DLTはAIへの信頼を再構築します
この記事は1年以上前に公開されました。一部の情報は最新でない場合があります。

以下は、HBAR FoundationのCEOであるチャールズ・アドキンスによって書かれたゲスト投稿です。彼は以前、ヘデラ・ハッシュグラフLLCの社長を務めました。チャールズはブロックチェーンと暗号通貨の分野で豊富な経験を持ち、以前はPolygon LabsおよびAptosで働いていました。
人類に役立つAIを確保するためのガバナンスが必要ですが、AI開発の規模と複雑さは人間の能力を超えています。ここで登場するのが分散型台帳技術(DLT)です。DLTは、複数のノードにわたってデータを記録し、検証する分散型システムであり、AIに透明性、説明責任、誠実さをもたらし、信頼を構築し、独占的な制御を防ぎ、倫理的な革新を促進します。
AI「ブラックボックス」を解き明かす
AIはしばしばブラックボックスのように機能し、意思決定の方法を隠す秘密のデータに依存しています。この不透明性は特にヘルスケアや金融のような透明性が要求される業界で信頼を損ないます。DLTを用いれば、秘密はありません。DLTは、不変の台帳にすべてのデータと更新を記録し、変更のたびに追跡可能な永久的なデジタル記録を提供します。
たとえば、ProveAIを例にとると、倫理基準やEU AI法のような規制に準拠するためにAIトレーニングデータと更新を確保し追跡するためにDLTを使用しています。このアプローチはAIモデルの説明責任を確立し、その結果の信頼性と公平性の基盤を築きます。
DLTによるデータ品質の向上
残念ながら、データ品質の低さはAI開発における執拗な課題であり続けています。2024年に行われたPreciselyの調査では、64%の企業が未検証またはバイアスのあるデータのためにAIを信頼できないと感じています。DLTはリアルタイムデータを分散型ネットワークに固定し、正確で透明かつ不変であることを保証します。
たとえば、外部データで回答を強化するためにRetrieval Augmented Generation(RAG)を利用するAIモデルでは、DLTは検証済みで改ざん不可能な情報のみが使用されることを保証します。これにより、誤情報やバイアスが出力に侵入するリスクを最小化し、倫理的なAIガバナンスを進展させます。
Fetch.aiやOcean Protocolは、この革新の可能性をすでに示しています。Fetch.aiはオラクルを活用してリアルタイムの外部データにアクセスし、Web3エコシステム全体での物流とエネルギー効率を最適化しています。同様に、Ocean Protocolはトークン化されたデータ共有を確保し、AIシステムが高品質なデータセットにアクセスしながらユーザーのプライバシーを保護できるようにしています。
DLTによる誤情報の対処
これらの能力は、特にディープフェイクの増加に伴って高まる誤情報の課題に対処するために不可欠です。Ofcomは最近、2024年上半期に16歳以上の人々の43%が少なくとも1つのディープフェイクに遭遇したことを明らかにしました。Truepicのようなブロックチェーンプラットフォームは、画像の認証、タイムスタンプ、作成時のメディア検証を組み合わせることでこの問題に取り組んでいます。検証済みのデータとメディアをRAGのワークフローに統合することで、AIシステムは出力のファクトチェックをより効果的に行い、それが生成する情報の信頼性を向上させます。
倫理的AIのための分散型ガバナンス
中央集権型のガバナンスモデルは、AI開発のスピード、複雑性、倫理的課題に対処するのが難しく、責任ある革新を妨げています。Preciselyのグローバル調査は、62%の組織がAI導入の主要な障害として不十分なガバナンスを指摘していることを示しました。
分散型自律組織(DAOs)、DLTによって強化されたものは、解決策を提供するかもしれません。DAOsは、スマートコントラクトを通じてガバナンスと意思決定を自動化し、開発者、ユーザー、規制者が透過的に提案について投票することを可能にします。すべての決定がブロックチェーンに記録され、一方的な制御を防ぎ、決定を集団の利益に合わせて調整し、説明責任と包括性を確保します。
SingularityNETは、倫理的な原則に沿ったAIプロジェクトを調整するためにDAOフレームワークを使用することでその可能性を示しています。この分散型アプローチは、包摂性を促進するだけでなく、ガバナンスが公共の利益を反映することを保証し、スケーラブルで倫理的なAI開発の基盤を築きます。
グローバルな基準と前進への道
AIがますます国境を越えたデータに依存することになると、DLTのような安全で透明なシステムが大規模な信頼の構築に不可欠になります。多くの組織が既にその可能性を模索しています。例えば、MediLedger Networkは製薬供給チェーンにおけるデータ改ざんを防ぐためにDLTを使用しており、European Blockchain Services Infrastructure(EBSI)は安全な情報分配のためにDLTを活用し、EU組織が最近のEU AI法に準拠するのを支援する可能性のあるフレームワークを提供しています。
しかし、さらに進む必要があります。
グローバルな規制の調整が断片化を防ぎ、普遍的な基準を確立するために重要です。政府、企業、市民社会が協力して公共の利益を優先するガバナンスフレームワークを開発する必要があります。また、DAOも柔軟で集団的な監督を提供できるように進化する必要があります。
今は自己満足している場合ではありません。今行動を起こさなければ、AIのリスクは制御不能に成長し、対処の手立てを失うことになります。倫理的AIの未来は、本日の大胆な決定にかかっています。DLTは、透明性、説明責任、人類の最善の利益に沿った将来の基盤となることができるのです。








