提供
Interview

分散型AIは不足のない社会を解放する可能性があると0GラボのCEOが語る

AIに関する議論は、その関連性を問うものから、その利用が広がる中でより信頼性が高く効率的にすることに焦点を当てるものへと進化してきました。マイケル・ハインリッヒは、AIがポスト・スカーシティ社会を促進し、人々を単調な仕事から解放し、より創造的な追求を可能にする未来を描いています。

共有
分散型AIは不足のない社会を解放する可能性があると0GラボのCEOが語る

データのジレンマ:品質、起源、信頼

人工知能(AI)に関する議論は根本的にシフトしました。もはやその関連性についての疑問ではなく、信頼性、透明性、および効率性をいかに確保するかが議論の中心となっています。

現在のAIパラダイムは、集中化された「ブラックボックス」モデルと巨大な専有データセンターに支配されており、バイアスや独占的なコントロールに関する懸念の高まりから圧力に直面しています。Web3領域の多くの人にとって、解決策は現在のシステムを厳しく規制するのではなく、基盤のインフラストラクチャを完全に分散化することにあります。

これらの強力なAIモデルの効果は、まず第一に訓練されているデータの品質と整合性によって決定されます。これは、システムエラーやAIの幻覚を防ぐために検証可能で追跡可能でなければなりません。金融や医療のような産業における賭け金が高まる中、AIのための信頼性のある透明な基盤の必要性は重要です。

スタンフォード大学の卒業生で、シリアルアントレプレナーであるマイケル・ハインリッヒは、その基盤を構築するための先駆者の一人です。0G LabsのCEOとして、彼はAIを安全で検証可能な公共財にすることを目的とした、初かつ最大のAIチェーンを開発中です。Yコンビネーター支援を受けたトップ企業のGartenをかつて設立し、Microsoft、Bain、Bridgewater Associatesでの経験を持つハインリッヒは、現在、分散型AI(DeAI)の構築にその専門知識を応用しています。

ハインリッヒは、AIパフォーマンスの核はその知識基盤、つまりデータにあると強調します。「AIモデルの効果は、まず第一に訓練されているデータの質によって決定されます」と彼は説明します。高品質でバランスの取れたデータセットは正確な応答を導きますが、悪いまたは過小代表のデータは質の低い出力と幻覚に対する脆弱性を高めます。

ハインリッヒにとって、これらの常に更新される多様なデータセットの整合性を維持するには、現状からの抜本的な転換が必要です。彼はAIの幻覚の主な原因は透明な起源の欠如であると主張し、その解決策は暗号化であると述べています。

私はすべてのデータが暗号化された証明と検証可能な証拠のトレイルでオンチェーンにアンカーされるべきだと信じています。

この分散化された透明な基盤は、経済的インセンティブと継続的な微調整を組み合わせることで、エラーやアルゴリズムバイアスを体系的に排除するために必要なメカニズムとして見なされています。

技術的な修正を超えて、フォーブスの40歳未満の40人に選ばれたハインリッヒは、AIに対するマクロビジョンを持ち、AIが豊かさの時代を迎えるべきであると信じています。

「理想的な世界では、それは資源が豊富になり、誰もが単調な仕事から解放されるポスト・スカーシティ社会の条件を作り出すことを望んでいます」と彼は述べます。この転換により、人々は「より創造的でレジャーのある仕事に集中できる」ようになり、基本的に誰もがより多くの自由時間と経済的安全を享受できるようになります。

特に、彼は、分散化した世界こそがこの未来を支える鍵であると主張します。これらのシステムの美しさは、インセンティブが整合しており、計算能力のための自己均衡経済を創出することにあります。資源の需要が増加すると、供給するインセンティブが自然に高まり、その需要が満たされるまでこのプロセスが続き、計算資源の供給がバランス良く、許可不要で行われます。

AIの保護:オープンソースとインセンティブデザイン

声のクローン詐欺やディープフェイクなど、意図的なAIの誤用からAIを守るため、ハインリッヒは人間中心の解決策とアーキテクチャ的な解決策を組み合わせることを提案しています。まず、人々がAI詐欺や偽情報に使用される偽物を識別する方法を教育することに重点を置くべきです。ハインリッヒはこう述べています。「AI生成コンテンツを指紋化して識別できるよう、人々を教育する必要があります。」

法律制定者もまた、AIの安全性と倫理に関する世界的な基準を設定することで役割を果たせます。AIの誤用を完全に排除することは難しいですが、そのような基準の存在は「ある程度、誤用の抑制につながる可能性があります。」最も強力な対抗手段は、分散型デザインに組み込まれています。「インセンティブが整合するシステム設計により、意図的なAIの誤用を劇的に減少させることができます。」オンチェーンでAIモデルを展開し、ガバナンスすることで、正直な参加が報酬を受け、悪意のある行動には直接的な経済的ペナルティが発生します。

一部の批評家はオープンアルゴリズムのリスクを懸念していますが、ハインリッヒはそれを積極的に支持しています。なぜなら、それはモデルの動作の可視性を提供するからです。「検証可能な訓練記録や不変のデータトレイルは、透明性を確保し、コミュニティによる監視を可能にするために使用できます。」これが所有権、クローズドソースの「ブラックボックス」モデルに関連するリスクに直接対抗するのです。

この安全で低コストなAIの未来を実現するために、0G Labsは最初の「分散型AIオペレーティングシステム(DeAIOS)」を構築しています。

このオペレーティングシステムは検証可能なAIの起源を提供するよう設計されています。これは大規模なAIデータセットをオンチェーンで管理し、すべてのデータを検証可能で追跡可能なものにする、高度にスケーラブルなデータストレージと可用性レイヤーです。このセキュリティと追跡可能性のレベルは、規制されたセクターで活動するAIエージェントにとって不可欠です。

さらに、このシステムは許可不要のコンピュートマーケットプレイスを提供し、競争力のある価格でコンピュートリソースへのアクセスを民主化します。これは、集中型クラウドインフラストラクチャに関連する高コストとベンダーロックインに対する直接的な回答です。

0G Labsはすでに、Dilocoxで技術的な突破口を示しています。これは、1000億を超えるパラメータを持つLLMのトレーニングを1 Gbpsクラスタを超えて分散的に可能にするフレームワークです。モデルをより小さな独立してトレーニングされる部分に分割することにより、Dilocoxは従来の分散トレーニング方法と比較して357倍の効率改善を示しており、中央集権型データセンターの枠に収まらない大規模AI開発を経済的に実現可能にします。

AIのより明るく、より手頃な未来へ

結局のところ、ハインリッヒは参加と採用の障壁を取り除くことで、分散型AIの非常に明るい未来を見ています。

「それは、人々やコミュニティが専門的なAIモデルを共に創る場所です。これにより、AIの未来は一握りの集中型エンティティではなく、多くの人々によって形作られます」と彼は結論付けます。独占的AI企業が価格を上げる圧力を受ける中で、DeAIの経済学およびインセンティブ構造は、より強力なAIモデルを低コストで作成できる魅力的で、はるかに手頃な代替案を提供し、より開かれた、安全で、最終的にはより利益をもたらす技術的未来への道を整えます。

FAQ

  • 現在の集中化AIの主な問題点は何ですか? 現在のAIモデルは、その集中化された「ブラックボックス」アーキテクチャのために透明性の問題、データバイアス、独占的コントロールに悩まされています。
  • マイケル・ハインリッヒの0G Labsが開発しているソリューションは何ですか? 0G Labsは、AIを安全で検証可能な公共財とするため、最初の「分散型AIオペレーティングシステム(DeAIOS)」を開発しています。
  • 分散型AIはどのようにしてデータの整合性を保証しますか? データ整合性は、すべてのデータを暗号化された証明と検証可能な証拠のトレイルでオンチェーンにアンカーすることによって維持され、エラーや幻覚を防ぎます。
  • 0G LabsのDilocox技術の主な利点は何ですか? Dilocoxは、大規模なAI開発を非常に効率的に行うためのフレームワークであり、従来の分散トレーニングに比べて357倍の効率改善を示しています。