AIがGPU不足の波を引き起こす:ブロックチェーンはどのように機械学習のボトルネックを緩和するのか?
原文标题:AIの台頭とGPU不足:ブロックチェーンが機械学習のボトルネックを緩和する方法
原文作者:トミー・イーストマン
原文编译:フランク,フォーサイトニュース
人工知能の発展とGPUの需要の増加に伴い、機械学習業界はGPUのコストとアクセス可能性の問題に直面しています。ブロックチェーン技術がどのように解決策を提供しているかを見てみましょう。
GPU産業
過去1年で、人工知能に基づくアプリケーションと統合が大きく成長しました。OpenAIのChatGPTは史上最も急成長したアプリケーションとなり、リリースからわずか2ヶ月で1億の月間アクティブユーザーに達しました。これに対し、TikTokは9ヶ月、Instagramは18ヶ月かかって同じマイルストーンに到達しました。
人工知能への需要は、グラフィックス処理装置(GPU)の価値と可用性に大きな影響を与えています。GPUは並列計算を実行するために最適化された処理ユニットであり、多くのデータを同時に処理するため、機械学習、ビデオ編集、ゲームアプリケーションにとって非常に有用です。GPUは人工知能の分野で多用途であるため、市場でのGPUの需要が増加しています。
GPUは数社によって開発され販売されており、製造業のサプライチェーンの遅延が明らかです。2017年のブルマーケット以来、彼らはブロックチェーン業界と密接に関連しており、2018年にはEthereumのプルーフ・オブ・ワークマイナーがほぼすべての利用可能なGPUを購入しました。Ethereumブロックチェーンはプルーフ・オブ・ステークに移行しましたが、人工知能の爆発的な成長に伴い、ブロックチェーン技術はGPUの取得、トレーニングコスト、分散推論などの一般的な問題に対して有用な解決策を提供し続けています。
機械学習プロセスとボトルネック
機械学習は巨大で急速に発展している業界です。モデルのトレーニングは通常、いくつかのステップに分かれており、それぞれに特定のボトルネックがあります。
1. 基本モデルのトレーニング
基本モデルのトレーニングは、大規模なデータセット(例えばウィキペディア)を取得し、一般的な知能モデルとして使用するための初期基本モデルをトレーニングすることを含みます。これは、学習したパターンと関係を使用して、シーケンス内の次の項目を予測します。
例えば、画像生成モデルは画像パターンと対応するテキストを関連付けるようにトレーニングされているため、テキスト入力が与えられると、これらの学習したパターンに基づいて画像を生成します。同様に、テキストの場合、モデルは前の単語と文脈に基づいてテキスト文字列内の次の単語を予測します。
基本モデルのトレーニングは、労働力、インフラ、時間、エネルギーの面で高価であり、現在のサプライチェーンでは最先端のNVIDIA GPUを入手するのが難しいため、資金が豊富な企業にとってもそうです。
例えば、OpenAIのGPT-3の反復トレーニングは数ヶ月続き、エネルギーコストだけで数百万ドルを消費しました。したがって、基本モデルのトレーニングは依然として高価で手が届かない努力であり、ごく少数の民間企業しか実行できません。
2. 微調整
注目すべきは、基本モデルのトレーニングと比較して、リソース集約度が低く、特定のタスクのモデル(例えば新しい方言を学ぶ言語モデル)を最適化する微調整です。基本モデルは特定のタスクでのパフォーマンスを微調整によって大幅に向上させることができます。
GPUの不足はこの3つの分野に影響を与えますが、微調整は最小限の影響を受けます。しかし、微調整は完全にオープンソースの基本モデルに依存しています。もし民間企業が彼らのモデルのオープンソースを停止することを決定すれば、コミュニティモデルは驚くべき速度で最先端(SOTA)モデルに遅れをとることになります。
3. 推論
モデルへのアクセスは、このステップの最後のステップを表します------例えば、ChatGPTから受け取る質問の答えは、安定した拡散に基づいて生成された画像です------モデルクエリにGPUリソースが必要です。推論は計算要求の面で急速に進化しており、特にGPU支出において顕著です。
推論には最終ユーザーだけでなく、モデルをアプリケーションに統合する開発者も含まれ、これはそのモデルの経済的実行可能性を確保する手段です。この概念は、人工知能システムを社会に統合する上で重要であり、その重要性は終端ユーザーがChatGPTなどのツールを積極的に使用する急速な採用率に現れています。
GPUの不足は推論コストを急速に上昇させています。基本モデルのトレーニングと比較して、推論のベンチマーク要求は低いですが、企業がアプリケーションを展開する規模は、モデルをクエリするためのGPU負荷が驚異的です。GPUモデルの多様性が増すにつれて(微調整や新しい基本モデルの開発を通じて)、アプリケーションの多様性も増し、推論からのGPU需要は急激に増加するでしょう。
ブロックチェーンが機械学習のボトルネックに提供する解決策
過去には、GPUはEthereumや他のPoWトークンのマイニングに使用されていました。現在、ブロックチェーンは、アクセスを提供し、GPUスペースのボトルネックを増加させるためのユニークな機会と見なされています------特に機械学習の分野で。
暗号インセンティブ
大規模なGPU展開には多額の前期資金が必要であり、これが大企業以外のすべての企業の進展を妨げています。ブロックチェーンのインセンティブは、GPU所有者が余剰計算から利益を得る可能性を生み出し、ユーザーにとってはより安価でアクセスしやすい市場を提供します。
分散アクセス
誰でも計算を提供/使用し、モデルをホスティングし、モデルをクエリすることができます------これは、テスト版にある必要があるか、従来の空間で限られたアクセス権を持つこととは明らかに異なります。
ブロックチェーンが機械学習空間に提供できる重要な特徴の1つは、分散アクセスです。従来の機械学習は大規模なデータセンターを必要としますが、FMTはまだ非クラスターGPUで大規模に完了していないため、分散プロトコルはこの問題を解決しようとしています。成功すれば、FMTの扉が開かれるでしょう。
市場調整
ブロックチェーン市場はGPUの調達を調整し、GPUを所有する個人や企業がそれらを借りたい人を見つけることを可能にします。これにより、GPUが無駄にされることなく、GPUが無駄にされている間に収入を得ることができ、GPUの購入にかかる前期コストを相殺するのに役立ち、より多くの実体がGPUホスティングに参加できるようになります。
Foundryの責任あるAIへのコミットメント
ブロックチェーン機械学習分野はまだ始まったばかりの業界であり、メインネット上には非常に少数のプロジェクトしかありません。現在、FoundryはBittensor AIプロジェクトとAkashをサポートしており、これは分散AIを進めるための意味のある方法であることが証明されています。
Bittensor
Bittensorは、モデルへのアクセスを容易にし、暗号インセンティブを通じてより安価なモデル市場を創出するための去中心化された許可不要の計算ネットワークです。誰でもモデルをホスティングでき、ユーザーのプロンプトは与えられたモダリティのランキングが最も高いモデルに一致します。
Bittensorは、ブロックチェーンを利用して大規模な計算推論ネットワークを構築し、最近では画像生成、予測市場などの異なるモードをインセンティブ化するサブネットを発表しました。
Foundryはネットワーク上で検証とマイニングを行い、コンセンサスを確保するために権威証明ノードを運営しています。
Akash
Akashは、GPUへの大規模アクセスを容易にし、より多くの基本モデルをトレーニングし、GPUのコストを削減するための汎用計算市場です。
Akashは最近、彼らのGPU市場を立ち上げ、入門資金のハードルを下げ、GPU計算コストを削減し、アクセス可能性を高めることを目指しています。基本モデルのトレーニングプログラムはAkashで発展しています。FoundryはネットワークにGPU計算を提供し、チームと協力して機能を開発しています。
次は何か?
機械学習が企業にますます統合されるにつれて、GPUの需要は引き続き急増し、機械学習分野での持続的なサプライチェーンの問題を引き起こしています。ブロックチェーン技術は、モデルへの分散アクセスを許可し、暗号インセンティブを持つより安価なモデル市場を創出することによって、低計算コストのGPUへのアクセスの架け橋を提供しています。