Hack VC パートナー:AI+Crypto の 8 つの真の利点

ハックVC
2024-06-24 23:52:36
コレクション
暗号 x AI の構想を分析し、その中の真の課題と機会について議論し、どれが空虚な約束で、どれが実行可能なのかを考察します。

著者: Ed Roman , Hack VC マネージングパートナー

編訳:1912212.eth , Foresight News

AI + Crypto は最近の暗号通貨市場で注目を集めている最前線の分野の一つであり、例えば、分散型 AI トレーニング、GPU DePINs、検閲耐性のある AI モデルなどがあります。

これらの目を見張る進展の背後で、私たちは思わず問いかけます:これは本当に技術的なブレークスルーなのか、それとも単にホットな話題に便乗しているだけなのか?この記事では、暗号 x AI の構想を明らかにし、その中の本当の課題と機会を分析し、どれが空虚な約束で、どれが実行可能なのかを明らかにします。

構想#1:分散型 AI トレーニング

オンチェーン AI トレーニングの問題は、GPU 間の高速通信と調整が必要であることです。なぜなら、神経ネットワークはトレーニング中に逆伝播を必要とするからです。Nvidia はこれに対して二つの革新(NVLink と InfiniBand)を持っています。これらの技術は GPU 通信を超高速にしますが、これらはローカル技術に限られ、単一のデータセンター内にある GPU クラスター(50+ ギガビット速度)にのみ適用されます。

分散型ネットワークを導入すると、ネットワークの遅延と帯域幅の増加により、速度が突然数桁遅くなります。データセンター内の Nvidia 高速インターコネクトから得られるスループットと比較すると、この速度は AI トレーニングのユースケースには不可能です。

以下の革新が未来に希望をもたらす可能性があることに注意してください:

  • InfiniBand 上で大規模な分散トレーニングが行われており、NVIDIA 自身が NVIDIA Collective Communications Library を通じて InfiniBand 上の分散非ローカルトレーニングをサポートしています。しかし、これはまだ新生段階にあり、採用指標は未確定です。距離に関する物理法則のボトルネックは依然として存在し、InfiniBand 上のローカルトレーニングは依然としてはるかに速いです。
  • 分散トレーニングに関する新しい研究が発表されており、これにより通信同期時間が短縮され、将来的に分散トレーニングがより実用的になる可能性があります。
  • モデルトレーニングのインテリジェントなシャーディングとスケジューリングはパフォーマンスを向上させるのに役立ちます。同様に、新しいモデルアーキテクチャは将来の分散インフラストラクチャのために特別に設計されている可能性があります(Gensyn はこれらの分野で研究を行っています)。

トレーニングデータの部分も挑戦的です。AI トレーニングプロセスには、大量のデータを処理することが含まれます。通常、モデルは高いスケーラビリティとパフォーマンスを持つ集中型の安全なデータストレージシステムでトレーニングされます。これには数 TB のデータを転送および処理する必要があり、これは一回限りのサイクルではありません。データは通常ノイズが多く、エラーを含んでいるため、モデルをトレーニングする前にクリーンアップし、使用可能な形式に変換する必要があります。この段階では、標準化、フィルタリング、欠損値の処理といった繰り返し作業が含まれます。これらはすべて分散型環境で厳しい課題に直面しています。

トレーニングデータの部分も反復的であり、これは Web3 とは互換性がありません。Open AI は数千回の反復を経て成果を上げました。AI チーム内でデータサイエンティストの最も基本的なタスクシナリオには、目標の定義、データの準備、重要な洞察を抽出するためのデータの分析と整理、モデル化に適した形にすることが含まれます。その後、定義された問題を解決するために機械学習モデルを開発し、テストデータセットを使用してそのパフォーマンスを検証します。このプロセスは反復的です:現在のモデルが期待通りに機能しない場合、専門家は結果を改善するためにデータ収集またはモデルトレーニングの段階に戻ります。このプロセスが分散型環境で行われると想像してみてください。最先端の既存のフレームワークとツールが Web3 に適応するのは容易ではありません。

オンチェーントレーニング AI モデルのもう一つの問題は、推論に比べてこの市場がはるかに退屈であることです。現在、AI 大規模言語モデルのトレーニングには大量の GPU 計算リソースが必要です。長期的には、推論が GPU の主要なアプリケーションシーンになるでしょう。世界の需要を満たすために、どれだけの AI 大規模言語モデルをトレーニングする必要があるか、これらのモデルを使用する顧客の数と比較して、どちらが多いのでしょうか?

構想#2:過剰冗長な AI 推論計算を使用して合意を得る

暗号と AI に関するもう一つの課題は、AI 推論の正確性を検証することです。なぜなら、単一の集中型の主体に推論操作を実行させることを完全に信頼することはできず、ノードには不適切な行動が発生する潜在的なリスクがあるからです。この課題は、Web2 AI には存在しません。なぜなら、分散型合意システムがないからです。

解決策は冗長計算であり、複数のノードが同じ AI 推論操作を繰り返すことで、信頼のない環境で実行でき、単一障害点を回避します。

しかし、この方法の問題は、高性能 AI チップが極度に不足していることです。高性能 NVIDIA チップの待機時間は数年に及び、価格が高騰しています。AI 推論を複数のノードで何度も再実行することを要求すると、コストが倍増し、多くのプロジェクトにとっては実行不可能です。

構想#3:最近の Web3 特有の AI ユースケース

Web3 は独自の、Web3 顧客向けの AI ユースケースを持つべきだと提案する人もいます。これは(例えば)AI を使用して DeFi プールのリスク評価を行う Web3 プロトコル、ウォレットの履歴に基づいてユーザーに新しいプロトコルを提案する Web3 ウォレット、または AI を使用して非プレイヤーキャラクターを制御する Web3 ゲーム(NPC)などです。

現時点では、これは初期の市場であり(短期的には)、ユースケースはまだ探索段階にあります。一部の課題には以下が含まれます:

  • 市場の需要がまだ始まったばかりであるため、Web3 ネイティブユースケースに必要な潜在的な AI 取引は少ない。
  • 顧客が少なく、Web2 顧客と比較して Web3 顧客は数桁少ないため、市場の分散度が低い。
  • 顧客自体があまり安定していない。なぜなら、彼らは資金が少ないスタートアップ企業であり、いくつかのスタートアップは時間の経過とともに消滅する可能性があるからです。Web3 顧客を満たす Web3 AI サービスプロバイダーは、消えた顧客群を置き換えるために一部の顧客群を再獲得する必要があり、これがビジネスの拡大を非常に困難にします。

長期的には、私たちは Web3 ネイティブの AI ユースケースに非常に期待しています。特に AI エージェントがより一般的になるにつれて。私たちは、未来の特定の Web3 ユーザーがタスクを完了するために多数の AI エージェントを持つことを想像しています。

構想#4:コンシューマ向け GPU DePIN

データセンターではなく、コンシューマ向け GPU に依存する分散型 AI 計算ネットワークが多数存在します。コンシューマ向け GPU は、低エンドの AI 推論タスクや遅延、スループット、信頼性に柔軟な消費者ユースケースに非常に適しています。しかし、真剣な企業ユースケース(これは重要な市場の大多数)に対しては、家庭用マシンと比較して、顧客はより高い信頼性のネットワークを必要とし、より複雑な推論タスクがある場合は通常、より高性能な GPU が必要です。データセンターは、これらのより価値のある顧客ユースケースに適しています。

私たちは、コンシューマ向け GPU がデモに適しており、低い信頼性を許容できる個人やスタートアップに適していると考えています。しかし、これらの顧客は価値が低いため、私たちは Web2 企業向けに特化した DePIN が長期的にはより価値があると考えています。したがって、GPU DePIN プロジェクトは、初期には主にコンシューマ向けハードウェアを使用していたが、現在は A100 / H100 およびクラスター級の可用性を備えた状況に発展しています。

現実------暗号通貨 x AI の実際のユースケース

今、私たちは本当に利益をもたらすユースケースについて議論します。これらこそが真の勝利であり、暗号通貨 x AI は明らかな価値を増加させることができます。

真の利益#1:Web2 顧客へのサービス提供

マッキンゼーは、分析した 63 のユースケースの中で、生成 AI が毎年 2.6 兆ドルから 4.4 兆ドルの収益を増加させる可能性があると推定しています------対照的に、イギリスの 2021 年 GDP 総額は 3.1 兆ドルです。これにより、AI の影響力は 15% から 40% 増加します。もし私たちが生成 AI を現在のユースケース以外の他のタスクソフトウェアに組み込む影響を考慮に入れると、影響力は約倍増すると推定されます。

上記の推定に基づいて計算すると、世界の AI(生成 AI を超えて)の総市場価値は数十兆ドルに達する可能性があります。対照的に、今日のすべての暗号通貨(ビットコインやすべてのアルトコインを含む)の総価値は約 2.7 兆ドルです。したがって、現実を直視しましょう:短期的には、AI を必要とする顧客の大多数は Web2 顧客であり、実際に AI を必要とする Web3 顧客はこの 2.7 兆ドルのほんの一部を占めるに過ぎません(BTC がこの市場であり、ビットコイン自体は AI を必要としない / 使用しないため)。

Web3 AI ユースケースはまだ始まったばかりであり、現在この市場の規模がどれほど大きいかは不明です。しかし、確かなことは------予見可能な未来において、それは Web2 市場の中でほんの一部を占めるだけです。私たちは Web3 AI に明るい未来があると信じていますが、これは単に Web3 AI の現在最も強力なアプリケーションが Web2 顧客へのサービスであることを意味します。

Web3 AI から利益を得ることができる Web2 顧客の例には以下が含まれます:

  • AI を中心に構築された垂直特定のソフトウェア会社(例えば Cedar.ai や Observe.ai)
  • 自社の目的のためにモデルを微調整する大企業(例えば Netflix)
  • 急成長中の AI プロバイダー(例えば Anthropic)
  • 既存の製品に AI を統合するソフトウェア会社(例えば Canva)

これは比較的安定した顧客の役割であり、顧客は通常規模が大きく、価値があります。彼らはすぐに倒産する可能性が低く、AI サービスの巨大な潜在顧客を代表しています。Web2 顧客へのサービスを提供する Web3 AI サービスは、これらの安定した顧客群から利益を得るでしょう。

しかし、なぜ Web2 顧客は Web3 スタックを使用したいのでしょうか?この記事の次の部分では、この状況を説明します。

真の利益#2:GPU DePIN による GPU 使用コストの削減

GPU DePIN は、未活用の GPU 計算能力(最も信頼性の高いものはデータセンターから)を集約し、AI 推論に利用できるようにします。この問題の簡単なアナロジーは「GPU の Airbnb」です。

私たちが GPU DePIN に興奮している理由は、前述のように、NVIDIA チップが不足しており、現在 AI 推論に利用できる無駄な GPU サイクルがあるからです。これらのハードウェア所有者は埋没コストを支払っており、現在はデバイスを十分に活用していないため、現状と比較してこれらの部分 GPU をはるかに低いコストで提供できます。なぜなら、これは実際にハードウェア所有者に「お金を見つけた」からです。

例には以下が含まれます:

  • AWS マシン。今日、AWS から H100 をレンタルする場合、供給が限られているため、1 年間のリースを約束する必要があります。これは無駄を生じさせます。なぜなら、あなたはおそらく毎年 365 日、毎週 7 日間 GPU を使用するわけではないからです。
  • Filecoin 採掘ハードウェア。Filecoin には大量の補助供給がありますが、実際の需要はあまりありません。Filecoin は本当に製品市場の適合点を見つけたことがなく、Filecoin 採掘者は倒産のリスクに直面しています。これらのマシンは GPU を搭載しており、低エンドの AI 推論タスクに再利用できます。
  • ETH 採掘ハードウェア。イーサリアムが PoW から PoS に移行すると、これにより大量のハードウェアが迅速に解放され、AI 推論に再利用できます。

注意すべきは、すべての GPU ハードウェアが AI 推論に適しているわけではないということです。これが起こる明白な理由の一つは、古い GPU には LLMs に必要な GPU メモリ量がないことですが、これに関しては興味深い革新がいくつかあります。例えば、Exabits の技術は、活動中の神経細胞を GPU メモリにロードし、非活動中の神経細胞を CPU メモリにロードすることができます。彼らはどの神経細胞が活動する必要があるか / ないかを予測します。これにより、低エンドの GPU が AI ワークロードを処理できるようになります。GPU メモリが限られていても、これが実現します。

Web3 AI DePINs は、時間の経過とともに製品を進化させ、シングルサインオン、SOC 2 準拠、サービスレベル契約(SLA)などの企業向けサービスを提供する必要があります。これは、現在のクラウドサービスプロバイダーが Web2 顧客に提供しているサービスに類似しています。

真の利益#3:検閲耐性のあるモデルで OpenAI の自己検閲を回避

AI 検閲制度に関する議論は多くあります。例えば、トルコは一時的に Open AI を禁止しました(その後、Open AI はコンプライアンスを向上させ、彼らのやり方を変更しました)。私たちは、国家レベルの検閲制度は退屈だと考えています。なぜなら、各国は競争力を維持するために AI を採用する必要があるからです。

Open AI も自己検閲を行います。例えば、Open AI は NSFW コンテンツを処理しません。Open AI は次回の大統領選挙を予測することもありません。私たちは、AI ユースケースは興味深いだけでなく、市場も巨大だと考えていますが、Open AI は政治的理由からその市場に触れません。

オープンソースは良い解決策です。なぜなら、Github リポジトリは株主や取締役会の影響を受けないからです。Venice.ai はその一例であり、プライバシーを保護し、検閲耐性のある方法で運営することを約束しています。Web3 AI は、コストの低い GPU クラスターでこれらのオープンソースソフトウェア(OSS)モデルをサポートして推論を実行することで、効果的にそのレベルを引き上げることができます。これらの理由から、私たちは OSS + Web3 が検閲耐性のある AI の道を切り開く理想的な組み合わせであると信じています。

真の利益#4:OpenAI に個人情報を送信するのを避ける

大企業は内部データに対してプライバシーの懸念を抱えています。これらの顧客にとって、OpenAI がこれらのデータを所有する第三者を信頼するのは難しいかもしれません。

Web3 では、これらの企業にとって、内部データが突然分散型ネットワーク上に現れることは、より懸念されるかもしれません(表面的には)。しかし、AI に対するプライバシー強化技術には革新があります:

信頼できる実行環境(TEE)、例えば Super Protocol

全同態暗号(FHE)、例えば Fhenix.io(Hack VC が管理するファンドのポートフォリオ企業)や Inco Network(どちらも Zama.ai によってサポートされている)、および Bagel の PPML

これらの技術はまだ進化を続けており、今後登場するゼロ知識(ZK)および FHE ASIC によって性能が向上しています。しかし、長期的な目標は、モデルを微調整する際に企業データを保護することです。これらのプロトコルが登場することで、Web3 はプライバシー保護 AI 計算にとってより魅力的な場所になる可能性があります。

真の利益#5:オープンソースモデルの最新革新を活用する

過去数十年にわたり、オープンソースソフトウェアは専有ソフトウェアの市場シェアを侵食してきました。私たちは LLM をある種の専有ソフトウェアの形式と見なし、OSS を破壊するのに十分です。注目すべき挑戦者の例には Llama、RWKV、Mistral.ai があります。時間の経過とともに、このリストは間違いなく増加し続けるでしょう(より包括的なリストは Openrouter.ai で見つけることができます)。Web3 AI(OSS モデルによってサポートされる)を活用することで、人々はこれらの新しい革新を利用して革新を進めることができます。

私たちは、時間の経過とともに、オープンソースのグローバル開発チームと暗号通貨のインセンティブが組み合わさることで、オープンソースモデルやそれに基づくエージェントやフレームワークの迅速な革新を促進できると信じています。AI エージェントプロトコルの一例は Theoriq です。Theoriq は OSS モデルを利用して、組み合わせ可能な AI エージェントの相互接続ネットワークを作成し、より高度な AI ソリューションを構築するために組み立てることができます。

私たちがこれに自信を持つ理由は、過去において、時間の経過とともにほとんどの「開発者ソフトウェア」の革新が徐々に OSS によって超越されてきたからです。マイクロソフトはかつて専有ソフトウェア会社でしたが、現在は Github に貢献するランキング1位の会社です。これは理由があります。Databricks、PostGresSQL、MongoDB などの企業がどのように専有データベースを覆すかを見ると、OSS が業界全体を覆す一例となるため、ここでの前例は非常に説得力があります。

しかし、ここには一つの問題があります。オープンソース大型言語モデル(OSS LLMs)の一つの厄介な点は、OpenAI が Reddit や「ニューヨークタイムズ」などのいくつかの組織と有料データライセンス契約を結び始めたことです。この傾向が続くと、オープンソース大型言語モデルはデータ取得の財務的障壁のために競争が難しくなる可能性があります。Nvidia は、機密計算への投資をさらに強化し、安全なデータ共有の助けとするかもしれません。時間がこれらの発展を明らかにするでしょう。

真の利益#6:高削減コストのランダムサンプリングまたは ZK 証明による合意の達成

Web3 AI 推論の課題の一つは検証です。検証者が結果を欺いて報酬を得る機会があると仮定すると、推論を検証することは重要な措置です。このような不正行為は実際にはまだ発生していません。なぜなら、AI 推論はまだ初期段階にあるからですが、抑制策を講じない限り、これは避けられないことです。

標準的な Web3 のアプローチは、複数の検証者が同じ操作を繰り返し、結果を比較することです。前述のように、この問題が直面している顕著な課題は、現在高性能な Nvidia チップが不足しているため、AI 推論のコストが非常に高いことです。Web3 が未活用の GPU DePIN を通じてより低コストの推論を提供できるため、冗長計算は Web3 の価値提案を大きく損なうことになります。

より有望な解決策は、オフチェーン AI 推論計算に ZK 証明を実行することです。この場合、モデルが正しくトレーニングされているか、推論が正しく実行されているかを確認するために、簡潔な ZK 証明を検証できます(これを zkML と呼びます)。例には Modulus Labs や ZK onduit が含まれます。ZK 操作は計算集約型であるため、これらの解決策の性能はまだ初期段階にあります。しかし、私たちは ZK ハードウェア ASIC が近い将来にリリースされることで状況が改善されると予想しています。

さらに有望なのは、やや「楽観的」なサンプリングベースの AI 推論アプローチの構想です。このモデルでは、検証者が生成した結果の一部だけを検証すればよく、削減された経済コストを十分に高く設定することで、発見された場合に検証者の不正行為に対して強力な経済的抑制をもたらします。この方法で、冗長計算を節約できます。

もう一つの有望な構想は、Bagel Network が提案する水印および指紋ソリューションです。これは、Amazon Alexa が数百万台のデバイスに対してデバイス内 AI モデルの品質保証メカニズムを提供するのに似ています。

真の利益#7:OSS を通じてコストを節約(OpenAI の利益)

Web3 が AI にもたらす次の機会はコストの民主化です。これまで、私たちは DePIN を通じて GPU コストを節約することについて議論してきました。しかし、Web3 は集中型 Web2 AI サービスの利益率(例えば Open AI、執筆時点で年収は 10 億ドルを超えています)を節約する機会も提供します。これらのコスト削減は、OSS モデルを使用することで実現されます。専有モデルではなく、モデル作成者が利益を追求していないためです。

多くの OSS モデルは完全に無料のままであり、顧客に最良の経済的利益をもたらします。しかし、いくつかの OSS モデルは、これらの収益化方法を試みている可能性もあります。Hugging Face 上のすべてのモデルの中で、わずか 4% が予算を持ってモデルを補助する企業によってトレーニングされています。残りの 96% のモデルはコミュニティによってトレーニングされています。このグループ(Hugging Face の 96%)は基本的な実際のコスト(計算コストやデータコストを含む)を持っています。したがって、これらのモデルは何らかの方法で収益化する必要があります。

オープンソースソフトウェアモデルの収益化を実現するためのいくつかの提案があります。その中で最も興味深いのは「初期モデル発行」の概念であり、モデル自体をトークン化し、一部のトークンをチームに保持し、モデルの将来の収益の一部をトークン保有者に流すことです。ただし、この点では確かにいくつかの法的および規制上の障壁があります。

他の OSS モデルは、使用を通じて収益化を試みるでしょう。これが現実になれば、OSS モデルはその Web2 の収益化モデルにますます似てくる可能性があります。しかし、実際には市場は二つの部分に分かれ、一部のモデルは依然として完全に無料のままとなるでしょう。

真の利益#8:分散型データソース

AI が直面する最大の課題の一つは、モデルをトレーニングするための正しいデータを見つけることです。私たちは以前に分散型 AI トレーニングには課題があることに言及しました。しかし、データを取得するために分散型ネットワークを使用するのはどうでしょうか(その後、他の場所でのトレーニングに使用できる)?

まさに Grass のようなスタートアップがこのことを行っています。Grass は「データキャッチャー」で構成された分散型ネットワークであり、これらの人々は機械の未使用の処理能力をデータソースに提供し、AI モデルのトレーニングに情報を提供します。規模の観点から、大規模なインセンティブノードネットワークの強力な力により、このデータソースはどの企業の内部データソースよりも優れている可能性があります。これには、より多くのデータを取得するだけでなく、データをより関連性が高く、最新のものにするために、より頻繁にデータを取得することも含まれます。実際、分散型データキャッチャーの大軍を阻止することは不可能です。なぜなら、彼らは本質的に分散型であり、単一の IP アドレスに駐留していないからです。彼らはまた、データがキャッチされた後に有用であるようにデータをクリーンアップし、標準化するネットワークも持っています。

データを取得した後、あなたはそれをチェーン上に保存する場所と、そのデータを使用して生成された LLMs が必要です。

注意すべきは、未来におけるデータの Web3 AI における役割が変わる可能性があることです。現在、LLMs の現状は、データを使用してモデルを事前トレーニングし、時間の経過とともにより多くのデータを使用して改善することです。しかし、インターネット上のデータはリアルタイムで変化しているため、これらのモデルは常にやや古くなっています。そのため、LLM 推論の応答はやや不正確です。

未来の方向性は「リアルタイム」データという新しいパラダイムになる可能性があります。この概念は、大型言語モデル(LLM)が推論の質問を受けたときに、LLM がデータをリアルタイムでインターネットから再収集し、注入することができるというものです。こうすることで、LLM は最新のデータを使用することができます。Grass はこの部分を研究しています。

特別な感謝を以下の方々に、この記事に対するフィードバックと支援をいただきました:Albert Castellana、Jasper Zhang、Vassilis Tziokas、Bidhan Roy、Rezo、Vincent Weisser、Shashank Yadav、Ali Husain、Nukri Basharuli、Emad Mostaque、David Minarsch、Tommy Shaughnessy、Michael Heinrich、Keccak Wong、Marc Weinstein、Phillip Bonello、Jeff Amico、Ejaaz Ahamadeen、Evan Feng、JW Wang。

ChainCatcherは、広大な読者の皆様に対し、ブロックチェーンを理性的に見るよう呼びかけ、リスク意識を向上させ、各種仮想トークンの発行や投機に注意することを提唱します。当サイト内の全てのコンテンツは市場情報や関係者の見解であり、何らかの投資助言として扱われるものではありません。万が一不適切な内容が含まれていた場合は「通報」することができます。私たちは迅速に対処いたします。
チェーンキャッチャー イノベーターとともにWeb3の世界を構築する