技术支持
Interview

AI 专家:真相协议可能成为信息时代的 SSL

由AI生成的内容,包括深度伪造和假音频,模糊了现实和虚构之间的界限,导致广泛的混乱和操控。像Yannick Myson这样的专家主张在内容创建阶段嵌入验证,并实施去中心化的验证系统以确保真实性。

分享
AI 专家:真相协议可能成为信息时代的 SSL

虚假信息及其危险

2024年成为了一个明确警告,警示如果不采取安全措施,人工智能(AI)可能带来的危险。从印度的大规模民主活动到台湾紧张的政治氛围,AI生成的虚假信息活动在全球范围内留下了印记。

在台湾,深度伪造的新闻主播模糊了现实与虚构之间的界限,而在美国,一段假冒拜登总统的音频据称劝阻新罕布什尔州的民主党人投票,突显了AI在政治操控中的武器化容易程度。这种合成媒体的巨大数量和复杂性使得许多人在不确定的海洋中感到迷茫,难辨事实与虚构。

然而,一些专家,如Swarm Network的创始人兼首席执行官Yannick Myson认为,问题比选举操控更深。他引用了AI引发的精神病这样一种令人不安的现象,一些研究将其与延长的AI聊天机器人互动联系起来。这种AI引发的精神病的代价是巨大的;有些人失去了工作,还有些人不得不接受精神治疗。

“就像深度伪造利用我们的视觉处理捷径一样,AI精神病利用了我们的心理脆弱性,聊天机器人充当了验证和放大妄想思维的完美回音室,”Myson说道。

集中化与去中心化的解决方案

Myson认为,目前的反应性措施,如拼凑的事实核查倡议,根本不足以应对这一日益严重的问题。他坚称,“行业意识到拼凑的事实核查无法跟上合成媒体的速度或AI系统的心理操控。”

他的解决方案,体现在Swarm Network中,是一个主动的方法:大规模嵌入验证。这包括在内容创建的起点建立出处,确保数字信息的来源可以被追踪和验证。此外,Myson倡导去中心化的验证系统,在信息传播到数字领域时进行交叉检查和验证。

这种强大的“真相基础设施”的愿景与AI行业内日益增长的关注点一致。随着技术的快速进步,其滥用的伦理和社会影响变得越来越明显。由复杂AI生成的虚假信息助长的数字信息信任度的下降,对民主进程、社会凝聚力,甚至个人心理健康构成了重大威胁。

为此,一些人倡导监管回应,引用过去证明这是保护用户免受新兴技术相关潜在风险的重要工具的实例。然而,批评者警告,这可能会产生抑制创新的意外效果,Myson似乎同意这一观点。

“监管可以有所帮助,但前提是避免陷入集中化真理的陷阱。我们见过政府利用‘误导信息法’压制辩论,”Swarm Network首席执行官表示。

为了支持这一观点,Myson指出欧盟(EU)官员据称使用了欧盟的《数字服务法案》(DSA),该法案要求删除广泛定义的“有害”内容,“作为限制全球开放话语的工具。”Myson认为欧盟AI法案也会产生类似问题。

Myson主张而不是制定像DSA或AI法案这样的措施,应强制透明化、合成媒体清晰标注,以及开放的出处标准如C2PA。“规则应该强制执行证据,而不是意见,”他争辩道。

验证的未来

根据CEO的说法,像Meta和TikTok这样的主要社交媒体平台意识到这一点,并已转向更去中心化的事实核查方法。

“这种改变代表了一种基本的认识,即集中的事实核查会造成瓶颈和单点故障。内容验证的未来不是让政府或公司拥有决定什么是真实的权力,”CEO表示。

Myson认为,这种转变使得像Swarm Network提供的解决方案变得至关重要。与依赖少数集中的事实核查者相比,Swarm使用“AI代理与人类审阅员一起工作,创建一个可审计的、链上的已验证声明记录。”

实际上,AI代理正快速从理论概念转向实践应用,根本性地改变各个行业的运作方式。这些代理的主要优点在于它们能够自动化和优化。它们可以在短时间内处理大量数据,识别人类可能遗漏的模式,并且能24/7不知疲倦地运行。

尽管如此,AI代理的广泛应用也引入了需要仔细解决的复杂挑战。为克服其中的一些挑战,Myson说他的公司方法是“将代理转变为透明的合作者,而不是不受约束的神谕。”他补充道:

“在Swarm中,代理将信息分解为小的、可测试的声明,它们相互交叉检查,哪里需要细致,人类就介入。每一步都被记录并锚定在链上,因此它们的推理是可回放的。简而言之:没有黑盒子,只有可验证的轨迹。”

同时,Myson认为,在未来五年内,事实核查将从手动过程进化为数字生活的内置功能,AI代理将按其透明度而非速度进行评估。最终愿景是使真相成为互联网的基础层。

“就像SSL成为网络流量的默认设置一样,真相协议将成为信息的默认设置。这就是我们防止AI将世界淹没在噪音中的方法,”Myson总结道。