AI生成のコンテンツ、ディープフェイクやフェイクオーディオを含め、現実と捏造の境界を曖昧にし、広範囲の混乱と操作につながった。Yannick Mysonのような専門家は、コンテンツ作成段階での検証の埋め込みと、真正性を確保するための分散型検証システムの実装を提唱している。
AI エキスパート: 真実プロトコルは情報時代のSSLになりうる

偽情報とその危険性
2024年は、人工知能(AI)が適切な保護が施されない場合にどのような危険をもたらすかについての厳しい警告となった。インドの大規模な民主的行使から台湾の緊迫した政治情勢に至るまで、AI生成の偽情報キャンペーンがその印を残した。
台湾では、ディープフェイクのニュースキャスターが現実と捏造の境界を曖昧にし、アメリカ合衆国では、バイデン大統領がニューハンプシャー州の民主党員に投票を控えるよう呼びかけたとされる偽の音声が、AIが政治的操作のためにどれほど容易に武器化されるかを浮き彫りにした。この合成メディアの多大な量と洗練された内容により、多くの人々が事実と虚構を見分けるのに苦闘し、不確実性の海で漂流しているように感じている。
しかし、Swarm Networkの創設者兼CEOであるYannick Mysonのような専門家は、問題は選挙操作よりも深いところにあると主張している。彼はAI誘発性精神病を引き合いに出しており、これは人々が壮大な妄想を抱く現象であり、いくつかの研究ではAIとの長時間の対話と関連付けている。このAI誘発性精神病のコストは莫大であり、仕事を失った人や精神科治療に至った人がいる。
「ディープフェイクが私たちの視覚処理のショートカットを利用するように、AI精神病は私たちの心理的脆弱性を利用し、チャットボットは幻想的思考を確認し増幅する完璧なエコーチャンバーとなる」とMysonは述べた。
中央集権型対分散型ソリューション
Mysonは、現状の反応的な対策、たとえばパッチワーク的な事実確認の取り組みは、このエスカレートする問題に対処するには不十分であると考えている。「業界が目覚めつつあるのは、パッチワーク的な事実確認が合成メディアの速度やAIシステムの心理的操作についていけないということだ」と彼は主張している。
彼の解決策は、Swarm Networkに具現化されており、規模に応じた検証を埋め込むということである。これはコンテンツ作成の段階での著作の確立を含み、デジタル情報の起源が追跡、認証できることを保証するものだ。さらにMysonは、情報がデジタル領域を通じて広がるにつれて情報がクロスチェックされ、検証される分散型検証システムを推奨している。
この「真実のインフラ」の頑強なビジョンは、AI業界内の高まる懸念を反映している。技術が急速に進歩し続けるにつれ、悪用の倫理的・社会的影響はますます明白になっている。合成されたAIによる虚偽によってもたらされるデジタル情報への信頼の侵食は、民主的プロセス、社会的結束、そして個人の精神的健康にまで重大な脅威をもたらしている。
これに対処するために、過去の事例を引き合いに出して新興技術に関連する潜在的リスクからユーザーを保護する上で重要なツールとして規制対応を求める声もある。しかし、批判者はこれがイノベーションを阻害するという予期せぬ結果をもたらす可能性があると警告しているMysonもこの意見に同意しているようだ。
「規制は役立つが、真実の集約化という罠を避けなければならない。我々は政府が“偽情報法”を武器化し、議論を黙らせた事例を見てきた」とSwarm NetworkのCEOは述べた。
この主張を裏付けるためにMysonは、EUの官僚が広義に定義された「有害」コンテンツの削除を義務付ける欧州連合(EU)のデジタルサービス法(DSA)を「世界中の自由な討論を抑制するツールとして」使用しているとされる事例を指摘している。MysonはEUのAI法も同様の問題を引き起こすと主張している。
DSAやAI法のような法律を制定する代わりに、Mysonは透明性の義務付け、合成メディアの明確なラベル付け、C2PAのようなオープンプロヴェナンス標準を提唱している。「ルールは意見でなく証拠を強制するべきだ」と彼は主張した。
検証の未来
CEOによれば、MetaやTikTokのような主要なソーシャルメディアプラットフォームはこれを認識しており、より分散型アプローチへの移行を進めているという。
「このシフトは、中央集権型の事実確認がボトルネックや単一障害点を生み出すという基本的認識を表している。コンテンツ検証の未来とは、政府や企業に何が真実かを決定する力を与えることではない」とCEOは述べた。
Mysonは、このシフトがSwarm Networkによって提供されるようなソリューションを重要なものとしている。少数の中央集権型事実確認者に依存する代わりに、Swarmは「AIエージェントが人間のレビューアと共に監査可能なオンチェーン記録を作成する」というアプローチを使用している。
実際、AIエージェントは理論的な概念から実用的なアプリケーションへと急速に移行し、さまざまなセクターの運営方法を根本的に変えつつある。これらのエージェントの主な利益はその自動化と最適化の能力にある。膨大なデータを短時間で処理し、人間が見逃すかもしれないパターンを特定し、疲労することなく24時間稼働することができる。
しかしながら、AIエージェントの広範な採用は、慎重に取り組まなければならない複雑な課題も伴う。この課題の一部を克服するために、Mysonは自社のアプローチを「エージェントを透明な協力者にすることで、チェックされない神託ではない」と述べた。さらに、「Swarmでは、エージェントが情報を小さく試すことができる主張に分解し、互いをクロスチェックし、ニュアンスが必要な場合は人間が介入する。すべてのステップがログに記録され、オンチェーンに固定化されるので、彼らの推論が再生可能である。要するに、ブラックボックスではなく、検証可能な跡が残る。」と付け加えた。
一方で、Mysonは、今後5年間で事実確認が手動のプロセスからデジタルライフの内蔵機能へと進化し、AIエージェントはそのスピードだけでなく透明性によって評価されるようになると考えている。究極のビジョンは、インターネットの基盤層として真実をしっかり根付かせることである。
「SSLがウェブトラフィックのデフォルトになったように、真実のプロトコルは情報のデフォルトとなるだろう。そして、これがAIがノイズで世界を溺れさせることを防ぐ方法だ」とMysonは結論付けた。









