技术支持
Op-Ed

DLT 将重建对 AI 的信任

本文发布于一年多前。部分信息可能已不是最新的。

在2024年美国选举活动期间,一段深度伪造的视频在社交媒体上传播,错误地指控选民欺诈。在其他地方,偏见的数据在医疗保健中扭曲了人工智能的结果,危及患者护理。不透明的算法破坏了决策,破坏了市场,侵蚀了对金融系统的信任。人工智能的风险在升级,其缺陷正逐渐削弱公众的信心

分享
DLT 将重建对 AI 的信任
以下是一篇由HBAR Foundation首席执行官Charles Adkins撰写的客座文章。他曾任Hedera Hashgraph, LLC的总裁。Charles是一位有多年区块链和加密货币领域经验的领导者,曾在Polygon Labs和Aptos工作。

我们需要治理机制确保人工智能服务于人类,而不是伤害人类。但是,人工智能发展的规模和复杂性已经超出了人类的能力范围。分布式账本技术(DLT)的出现——一个在多个节点上记录和验证数据的去中心化系统。DLT为人工智能带来透明性、问责制和完整性,促进信任,防止垄断控制,鼓励道德创新。

破解人工智能的“黑箱”

人工智能常常像一个黑箱,依赖于隐藏决策过程的秘密数据。这种不透明性削弱了信任,特别是在像医疗保健和金融这样的行业中,其中透明性是不可谈判的。通过DLT,没有秘密。DLT通过在一个不可更改的账本上记录所有数据和更新——一个永久的数字记录,确保每一次更改都是可追溯的,改变了游戏规则。

例如,ProveAI使用DLT来保护和追踪人工智能训练数据和更新,确保遵循欧洲AI法案等伦理标准和法规。这种方法让人工智能模型负起责任,为其结果的信任和公平性奠定基础。

通过DLT提升数据质量

可惜,数据质量差仍然是人工智能开发中持续存在的挑战。2024年Precisely的调查显示,64%的企业认为人工智能由于数据未经验证或有偏见而不可靠。DLT通过将实时数据锚定到去中心化网络,确保其准确、透明和不可更改,从而解决了这一问题。

对于像利用检索增强生成(RAG)来通过外部数据增强响应的AI模型而言,DLT确保仅使用已验证、防篡改的信息。这最小化了虚假信息或偏见渗入输出的风险,推进了伦理人工智能治理。

Fetch.aiOcean Protocol展示了这种创新的潜力。Fetch.ai使用预言机访问实时外部数据,优化Web3生态系统中的物流和能源效率。同样,Ocean Protocol则确保了代币化数据共享,使AI系统能够访问高质量的数据集,同时保护用户隐私。

用DLT解决虚假信息问题

这些功能对于解决像虚假信息这样的日益严重的挑战尤其重要,特别是在深度伪造不断增多的情况下。Ofcom最近披露,2024年上半年,43%的16岁以上的人遇到过至少一个深度伪造。区块链平台如Truepic已经在通过结合区块链与图像认证、时间戳记和媒体验证来应对这个问题。在媒体创作的时刻进行验证。通过将已验证的数据和媒体集成到RAG工作流程中,AI系统可以更有效地核查输出,增强对其生成信息的信任。

去中心化治理以实现人工智能伦理

集中治理模式往往难以管理人工智能发展的速度、复杂性和伦理挑战,阻碍负责任的创新。Precisely的全球调查显示,62%的组织认为缺乏足够的治理是AI采用的主要障碍。

去中心化自治组织(DAO),由DLT提供技术支持,可能提供解决方案。DAO通过智能合约自动化治理和决策,使开发者、用户和监管者可以透明地对提案进行投票。每个决策都记录在区块链上,防止单方面控制,使决策与集体利益一致,并确保问责和包容。

SingularityNET展示了这一潜力,使用DAO框架将AI项目与伦理原则对齐。这种去中心化的方法不仅促进包容性,还确保治理反映公众利益,为大规模、伦理AI开发奠定基础。

全球标准与前行之路

随着人工智能越来越依赖跨境数据,像DLT这样的安全透明系统将在大规模建立信任方面必不可少。许多组织已经在探索其潜力。例如,MediLedger Network使用DLT来防止制药供应链中的数据篡改,而欧洲区块链服务基础设施(EBSI)利用DLT进行安全信息分发,可能为帮助欧盟组织遵守最近的欧洲人工智能法案提供框架。

但我们需要更进一步。

全球监管一致性对于防止碎片化和建立普遍标准至关重要。政府、企业和民间社会必须合作开发优先考虑公众利益的治理框架。DAO也必须发展以在人工智能技术发展时提供灵活的集体监督。

现在不是自满的时候。若不立即采取行动,人工智能的风险将无限增长,让我们无法应对。伦理人工智能的未来取决于今天的大胆决定。DLT可以成为这个未来的基础——透明、负责,并与人类的最佳利益保持一致。

本文标签