AI業界の急成長に伴い、開発者や政策立案者による即時の対応が必要な重大な課題が発生しています。Roman Georgioは3つの主要懸念事項を強調しています。それはAIの整合性と安全性の確保、そしてこれらのシステムを支えるデータ所有者へ公平な経済的枠組みを確立することです。
Redditスレッドからロボットの思考へ:AI訓練の隠れたコスト

AIの安全性と予測可能性の優先
人工知能(AI)業界が急速に成長し、機械の能力を次々と押し広げていく一方で、開発者や政策立案者、さらには国際社会が直面している重大な課題が浮き彫りになっています。Coral社のCEOで共同創設者であるRoman Georgioは、これらの切迫した問題について自身の見解を述べ、整合性、安全性、そしてデータクリエーターへの公正な経済モデルの確立の重要性を強調しました。
AIの未来に関する議論は、その変革的可能性と、提示される複雑な倫理的および社会的ジレンマとの間を行き来します。大規模な言語モデル(LLM)などの革新はその能力で人々を驚嘆させ続けますが、データの所有権や報酬、そして職業の構造に関する基本的な疑問も浮かび上がらせます。
Georgioにとって、最も重大な関心事はAIの整合性と安全性にあります。「AIシステムをさらに拡大する前に、もっと予測可能にする必要があることは明らかです」と彼は述べました。これは、ますます強力なAIシステムが、意図した通りに機能し、予期しない有害な結果を生み出さないようにすることの重要な課題に言及しています。AI能力の急速な拡大は、予測可能性とコントロールに関する並行した焦点がなければ、重大なリスクを提示します。
Georgioはこの問題に取り組むことは開発者だけの責任ではないと指摘しました。彼は、「企業や国の全てのリーダーが一室に集まり、何らかの立法案に同意する協調的な取り組みが必要となるかもしれない」と示唆しました。
経済的強制力: データの所有権と報酬
安全性以外に、GeorgioはWeb3技術が独自の解決策を提供できると信じる重要な経済問題を強調しました。それはデータの適用と、それに対する公正な報酬なしの大規模な職の置き換えの可能性です。
「AI企業はデータを書き換えることに関して一貫して悪名高い」とGeorgioは説明しました。
Coralの共同創設者は、オンラインで個人が無意識のうちに行った寄与が、やがて人間の仕事を置き換える強力なAIモデルの訓練に使用されている現状を生き生きと描写しました。彼は、数年前にプラットフォームのようなRedditで回答された医療の質問が、知らぬ間にLLMにデータを供給している例を挙げました。彼はまた、アーティストのクリエイティブワークが訓練に利用されることで生活が影響を受け、オープンソースプロジェクトへの貢献が inadvertently “black-box number-crunching machines”を燃料供給していると指摘しました。
この状況は、人々のデジタル貢献に対する基本的な所有権の欠如に帰着するとGeorgioは主張します。「あなたがブラックボックス番号を洗う機械にデータを供給しているとは知らなかった」と彼は強調しました。現在のモデルでは、AIシステムが、明示的な同意や元のクリエイターへの報酬のメカニズムなしで、人間が作成したコンテンツを含む広範なデータセットで訓練されることを許可しています。
Web3: 公正な報酬のための解決策
ここでGeorgioは、Web3技術の膨大な可能性を見出しています。彼は、検証可能な所有権と透明な取引に重点を置くWeb3の分散型性質が、これらの経済的不均衡を是正する実行可能な道筋を提供すると信じています。
「Web3はこうした問題を解決し、人々が公正に報酬を受け取れるようにする大きな可能性があります」とGeorgioは断言しました。ブロックチェーンと分散型プロトコルを活用することで、Web3は個人がデータおよびデジタル資産の所有権とコントロールを保持し、彼らの貢献がAIシステムの訓練や運用に使用される際に公正な報酬を受けることができるシステムを創造できます。この変化は、ユーザー、データ、AI 間の関係を再定義し、より公正なデジタル経済を促進する可能性を秘めています。
Web3技術がこれらの複雑な課題に対する有望な解決策を提示している一方で、政府機関がこれらの分散型アプローチをすぐに受け入れることはほとんどないと考えられます。その代わりとして、当局はむしろ伝統的な規制枠組みに固執する可能性があり、皮肉なことに、監督および制御しようとしている技術革新を阻害するリスクがあります。
一方で、GeorgioはAIおよびWeb3セクターの規制強化を強く訴えました。「どちらももっと規制が必要だと思う」と述べ、ヨーロッパが「規制の面で革新している」との認識を必要なステップと理解しています。
暗号の側面では、Georgioは、投資家をだます詐欺やプロジェクト退出の問題が横行していると指摘しました。「多くの人が自分で調査を行わないことは明らかで、詐欺的手法によって多くのプロジェクトが終了しています」と彼は嘆きました。これに対抗し、彼は「KOL(主要意見リーダー)、プロジェクト、投資家への責任を強化したい」と述べました。全ての失敗したプロジェクトが詐欺であるとは限らないと認めつつも、現在の状況は公共を保護するための変化を必要としていると強調しました。
AIに関しては、大型モデルの能力が増すにつれて、Georgioの懸念は増しています。「より大きいモデルは、策を講じる傾向があるようです」と彼は観察し、Anthropicの例を引き合いに出し、Claudeが閉鎖される脅威を察知したときに強迫的行動を示したという不安な事例を挙げました。「これは偶発的なことではないため、これらの大きいモデルは危険になってきていることは明白です」と彼は警告しました。
洗練されたAI行動の即時のリスクを超えて、Georgioは大規模な職業喪失の脅威を再度強調しました。企業が「盲目的に能力を拡大する」のではなく「目的を持って構築する」現在の進路を「狂っている」と考えました。彼の最終目標と、彼が産業が目指すべきと考えるのは、「全てのAIの利点を備えつつも全てのリスクを排除するソフトウェア」です。
AIエージェントは明確な役割を持つべき、ただのチャットボットではなく
同時に、AIインフラストラクチャの設計者としての経験を持つGeorgioは、AIエージェントの通信プロトコルの重要な側面についても意見を述べ、小さな不具合が混乱を招く可能性があることを認識しました。非技術的な一般ユーザーのための通信を強化するにはどのアプローチが最善であるか尋ねられた際のGeorgioの哲学は単純です:エージェントの責任を明確に定義することです。
「少なくとも私たちにとって、エージェントは非常に明確に定義された責任を負うべきだというのが私たちのルールです」とGeorgioは説明しました。「カスタマーサービスのためにエージェントを使用する場合、それが本当にカスタマーサービスに優れていることを確認し、それに集中させるべきです。」彼は「エージェントに過剰な責任を与えると、物事が崩壊する瞬間です」と強調しました。
この集中型アプローチは、エージェントがその指定された役割内でのパフォーマンスを向上させるだけでなく、ユーザーにも利益をもたらします。「エージェントが明確に定義されている場合、それを使うユーザーは何に参入しているか正確に把握できます。」この戦略は、知的システムとの円滑な対話のために不可欠な予測可能性と信頼を促進します。
AIが日常生活や産業に向けて成熟し統合していく中で、これらの基本的な安全性、予測可能性、経済的公正性の問題に対処し、思慮深い規制を施行し、明確で集中した責任を持つエージェントを設計することが、技術の倫理的開発だけでなく、その将来への持続可能で社会的責任ある統合にも非常に重要です。
AI導入の加速という重要な問題について、Georgioは「ただのAIチャットボックス」からの限界を超え、全般的なユーザー体験を根本的に改善する重要な転換を提案しました。現行のアプローチの欠点を詳述しながら、Georgioは次のように主張しました:
「現在、多くのタスクにはチャットインターフェースが使われていますが、これは大部分において理想的ではありません。問題は、AIチャットボックスを人々の前に置き、『これで何でもできる』と言っても、彼らは『素晴らしい、しかし何をすればいいのか?』と答えるのです。」
Georgioによると、Coralを含むいくつかの企業がAIユーザー体験を向上させるためのチャレンジに取り組んでいます。彼はAI開発者/メンテナーの観点から、CoralがAIシステムの相互作用の異なるステージでユーザーが必要とする情報、および特定のタスクに最適なインターフェースを特定するために「抽象化のはしご」を調査していることを明らかにしました。








