提供
News

テザー社は、スマートフォン向けAIフレームワーク「Bitnet」をリリースし、NVIDIA製GPUが不要になりました。

Tetherは、数十億パラメータ規模のモデルのトレーニングをスマートフォンでも処理可能なレベルまで縮小すると約束するフレームワークにより、ビッグテック各社が築いたAIハードウェアの参入障壁に挑んでいます。

共有
テザー社は、スマートフォン向けAIフレームワーク「Bitnet」をリリースし、NVIDIA製GPUが不要になりました。

テザーのAIフレームワークはVRAM使用量を70%以上削減し、エッジコンピューティングの領域を広げます。

火曜日、テザーはマイクロソフトのBitnetモデル向けクロスプラットフォームLoRAファインチューニングフレームワークを発表し、スマートフォンやノートPCを含むコンシューマーデバイス上で1ビットの大規模言語モデルをトレーニング・実行できる初のシステムと紹介しました。

このリリースはTetherのQVAC Fabricスタックの一部であり、これまで主にクラウドプロバイダーやハイエンドのNvidiaハードウェアに限定されていた人工知能開発に伴う膨大な演算能力とメモリの要求を軽減するように設計されています。Intel、AMD、AppleのチップやモバイルGPUを含む異種ハードウェアをサポートすることで、このフレームワークは開発者が中央集権的なインフラに依存することなく、ローカルでモデルを微調整することを可能にします。

実質的には、かつてデータセンターに限定されていたAIワークロードをバックパックやポケットに入るデバイスで実行できるようになり、この変化により、米国および世界中の開発者にとってコスト削減と利用機会の拡大が期待されます。Tetherは、同社のエンジニアがAdreno、Mali、Apple BionicチップなどのモバイルGPU上でBitnetの微調整に成功したと発表しており、これは新興の1ビットモデルアーキテクチャとしては初の成果となります。

同社が公開した性能ベンチマークによると、Samsung S25デバイス上で1億2500万パラメータのモデルを約10分で微調整でき、10億パラメータのモデルでも同じハードウェア上で約1時間18分で同様のタスクを完了できることが示されました

Appleデバイスでも同社は同様の結果を報告しており、iPhone 16上で10億パラメータのモデルを約1時間45分で微調整できたほか、実験的な実行では最大130億パラメータのモデルをデバイス上で処理することに成功しました。また、Tetherの内部ベンチマークによると、このフレームワークは推論速度においても顕著な向上が確認されており、モバイルGPUはCPUに比べて2倍から11倍のパフォーマンスを発揮しました。

メモリ効率も重要なセールスポイントであり、Bitnet-1Bは同等の16ビットモデルと比べて最大77.8%、他の広く使われているアーキテクチャと比べて65%以上VRAMを削減できるため、限られたハードウェア上でより大規模なモデルを実行できます。

Tetherによると、このシステムは同カテゴリーで初めてNVIDIA製以外のハードウェア上でLoRAによる微調整を可能にし、機密データをユーザーデバイス上にローカルで保存しつつ、専用チップやクラウドサービスへの依存を低減できる可能性があります。同社はさらに、このアプローチによりデータを一元化することなく分散したデバイス間でモデルを学習させることが可能になるためフェデレーテッドラーニングの実用性を高められると付け加えました。これはプライバシー重視のAI開発において関心が高まっている分野です。

リップルはブラジルで積極的に事業拡大を進めており、機関投資家向け暗号資産市場の支配を目指しています

リップルはブラジルで積極的に事業拡大を進めており、機関投資家向け暗号資産市場の支配を目指しています

リップルはブラジルの金融システム全体にわたる大規模な拡大を加速させ、機関投資家向け暗号資産インフラの中核としての地位を確立しつつあります。 read more.

今すぐ読む

「スマートフォンを含むコンシューマー向けハードウェア上で実用的な大規模モデルのトレーニングを可能にすることで、TetherのQVACは高度なAIが分散され、包括的で、すべての人にとって強力なものになり得ることを証明しています」とTetherのCEOであるパオロ・アルドイノ氏は声明で述べ、同社はデバイス上のAIインフラへの継続的な投資を計画していると付け加えました。

ベンチマークや実装の詳細を含む技術資料はHugging Faceを通じて公開されており、独自システムに技術を閉じ込めるのではなく開発者に直接アプローチしようとする姿勢がうかがえます

FAQ 🔎

  • テザーの新しいAIフレームワークとは何ですか? テザーの「QVAC Fabric」は、スマートフォンやノートパソコンなどの一般向けデバイス上でBitnet AIモデルのトレーニングと実行を行うためのクロスプラットフォームシステムを導入するものです。
  • スマートフォンで本当にAIモデルをトレーニングできるのですか? はい。テザーのベンチマークによると、数十億パラメータのモデルでも、Samsung S25やiPhone 16などのデバイス上で数時間以内に微調整が可能です。
  • なぜこれが米国の開発者にとって重要なのでしょうか? 高価なクラウドインフラや専用GPUへの依存を減らし、コストを削減するとともに、AI開発へのアクセスを拡大します。
  • Bitnetの他のモデルとの違いは何ですか? Bitnetは1ビットアーキテクチャを採用しており、従来の16ビットモデルと比較してメモリ使用量を大幅に削減し、効率を向上させています。