**グラディエント(Gradient)のCEOであるエリック・ヤン(Eric Yang)**氏は、人工知能における次の大きな転換は、巨大な独自モデルやより強力なデータセンターから生まれるのではないと考えている。
その代わりに、単一企業のスーパーコンピューター内部ではなく、グローバルでパーミッションレスなコンピュートネットワーク全体に学習処理を分散させるという、モデルの学習方法そのものの根本的な変化によってもたらされると主張する。
Yellow.comのインタビューでグラディエントの取り組みについて語る中で、ヤン氏は、OpenAI、Google、Anthropic、xAIといった現在の支配的なAIラボは、ファウンデーションモデルは巨大で中央集権的なインフラ内部でしか学習できない、という前提の上に成り立っていると述べた。
「AIは中央集権化から非常に大きな恩恵を受けてきたので、複数のデータセンターにまたがって大規模モデルを学習できたところはこれまで存在しなかった」と同氏は語る。グラディエントは、この前提が崩れつつあると読んでいる。
ヤン氏によれば、グラディエントはすでに、独立した複数のデータセンターに分散させた強化学習のトレーニングを成功させており、その性能は中央集権的なRLHFワークフローに匹敵するという。
これは、以前は不可能と考えられていたこと、すなわち兆パラメータ級モデルのポストトレーニングを、一社ではなく世界中の何千ものコンピュートプロバイダーが共同で担うという世界への扉を開くものだと話す。
関連記事: As Bitcoin Evolves Into A Global Economy, A Hidden Battle Emerges Behind Closed Doors
経済的な含意も同様に大きい。ヤン氏は、GPUオペレーター、データセンター、さらには小規模な独立系インフラプロバイダーまでが、トレーニングジョブにコンピュートを提供するために競い合う、世界的な「バウンティ駆動型」マーケットプレイスを描いている。
コントリビューターは、利用可能な中で最も低い価格でコンピュートを提供することによって報酬を得る一方、トレーニングコストは、現在市場を支配している中央集権的な代替手段よりも低く抑えられる。
また同氏は、分散型AIインフラは意味のあるセキュリティと信頼性の優位性ももたらすと考えている。
推論処理がユーザー所有のハードウェア、例えばMacBook、デスクトップ、自宅のGPU、あるいはハイブリッド構成の上で完結できるのであれば、個人データはデバイスの外へ出る必要がなくなる。
「私たちは今、Googleに渡していた以上に、はるかに機密性の高いデータをAIシステムに漏らしている」と同氏は言う。「ローカルで動く主権的なモデルは、それを変える。」
ヤン氏は、この透明性は学習そのものにも及びうると主張する。
学習データの来歴がオンチェーンで記録されるなら、ユーザーはどの環境やコントリビューターがそのモデルを形作ったのかを確認できる。これは、中央集権的なシステムで見られるバイアスや不透明な編集的コントロールに対する解毒剤になりうる、と同氏は話す。
彼の見立てでは、最終的なAIの景色を支配するのは単一の巨大モデルではなく、共同で学習され、共同で所有される「専門特化したモデルの海」だという。
「将来、あらゆる企業が、いま分析ツールを運用しているのと同じ感覚でAIを運用するようになるだろう」とヤン氏は語る。「そのときには、グローバルな分散型コンピュートネットワークこそが、スケール可能な唯一のモデルになる。」
次に読む: The Aster ETF Hoax That Fooled Even Top Crypto Influencers

