转载解读|DePIN 的不完美现状与光明未来:深度剖析
发布时间:2024年9月12日
原文链接:https://www.compound.vc/writing/depin
约5万字 | 阅读时间约20分钟
编者说
这篇研报为什么值得看?
- DePIN(去中心化物理基础设施网络)探索如何利用去中心化技术构建和管理现实世界的物理设施,可能颠覆众多传统行业。理解 DePIN 对把握 Web3 的未来发展至关重要。
- 本文从宏观到微观,系统地将 DePIN拆分为六大子分类,涵盖电信、能源、算力、去中心化 AI、数据与服务等核心领域,为读者勾勒完整生态图谱。且在每个领域都有头部项目的真实运营数据,揭示项目规模、用户增长及商业模式。
- 本文并没有一味鼓吹 DePIN 的美好前景,而是非常清晰地指出了当前 DePIN 项目面临的严峻挑战,特别是“不完美现状”,如代币经济模型的可持续性问题、与中心化巨头竞争的现实障碍,以及未来技术(如 6G、光子计算、分布式训练)的潜在影响。这种平衡的视角有助于读者更理性地评估该领域。
为了方便大家更快地了解文章的重点,我们对这份研报进行了摘要总结
另外,DePINone Labs对它进行了完整翻译整理,并突出其重点内容,便于大家收藏和分享。
要点内容 TL; DR
本报告深入探讨了 DePIN(去中心化物理基础设施网络)的概念、现状、挑战与未来。
DePIN 旨在通过区块链和去中心化激励,重塑传统物理基础设施的建设与管理模式,实现更高的资源利用率、透明度与弹性所有权。文章指出,真正的颠覆在于解决高成本、低效率的中心化模式痛点,而非简单地“去中心化”。
报告将 DePIN 领域划分为六大子类:
- Telecom & Connectivity(电信与连接):从 DeWi到固定无线、公共 WiFi,重点剖析 Helium、Karrier、Really、Andrena、Althea、Dabba、WiCrypt 等项目的技术路径与市场定位。
- Energy(能源):分布式能源(DER)、虚拟电厂(VPP)与链上融资平台,覆盖 Daylight、SCRFUL、Plural Energy、Glow、StarPower、Power Ledger 等协议的商业模型与监管挑战。
- Compute, Storage & Bandwidth(计算、存储与带宽):探讨 Akash、Fluence、IONet、Hyperbolic、Render、Livepeer 等去中心化算力市场,以及 Jackal、Arweave、Filecoin 等存储网络的性能与差异。
- Decentralized AI(去中心化 AI):列举 Prime Intellect、Bittensor、Gensyn、Prodia、Ritual、Grass 等项目,分析去中心化训练、验证与数据层的结合前景。
- Data Capture & Management(数据捕获与管理):强调内容分发、地图绘制、定位与气候/天气数据的市场价值和货币化挑战。
- Services(服务):展示 Dimo、PuffPaw、Heale、Silencio、Blackbird、Shaga 等利用加密激励驱动现实世界行为的创新用例 。
虽然 DePIN 展现出巨大潜力,被认为是加密领域最具长期可持续投资价值的方向之一,但目前仍处于早期发展阶段,面临诸多“不完美”的现实挑战,如代币经济模型难题、真实需求与采用、供需不平衡、竞争与监管等。
尽管挑战重重,报告对 DePIN 的未来仍持乐观态度(“光明未来”),认为其长期潜力巨大。
未来的发展关键在于解决代币经济的可持续性问题,真正聚焦于解决有意义的现实世界问题,并可能在环境监测、生物数据、个人数据共享(如报告中提及的生物声学、eDNA、睡眠/梦境数据)等创新领域找到突破口,为后续创新指明方向。
— — 以下为研报原文 — —
深入了解新兴的去中心化物理基础设施领域。
目前,加密行业的每个人都对去中心化物理基础设施网络(Decentralized Physical Infrastructure Networks)的概念很熟悉了。它们代表了关键基础设施建设、维护和货币化方式的潜在范式转变。DePIN 的核心是利用区块链和去中心化网络来创建、管理和扩展物理基础设施,而无需依赖任何中心化实体。这种方法开创了一个开放、透明、社区驱动的增长和所有权的新时代,并协调了所有参与者的激励机制。
虽然这些理想很重要,但要让这种去中心化类型的网络发挥其真正的潜力,他们需要构建引人注目的产品并解决有意义的问题。DePIN 的真正意义在于它有可能颠覆受高成本和低效率困扰的传统模式。我们对于创新缓慢的中心化机构都非常熟悉了,它们往往以垄断或寡头垄断的做法为特征。而DePIN 可以颠覆这一点。最终结果应该是更具弹性和适应性的基础设施,可以快速响应不断变化的需求和技术进步。
虽然我们不愿意构建市场地图,因为这对于我们在 Compound 进行的投资阶段来说往往过于落后,但在这种情况下,我们发现许多现有研究使这个垂直领域的状况过于复杂。对我们来说,在最高层次上,我们通过六个不同的子分类来看待 DePIN (单击每个子分类即可进入对应部分):
- Telecom & Connectivity 电信与连接
- Energy 能源
- Compute, Storage & Bandwidth 计算、存储和带宽
- Decentralized AI 去中心化AI
- Data Capture & Management 数据捕获与管理
- Services 服务
对加密货币最常见的批评之一,就是呼吁更多“实际应用场景”的陈词滥调。
坦率地说,这是一个陈旧而无知的论点,但无论如何都可能会持续存在。特别是在西方 — — 在那里人们早已将加密货币的应用场景视作理所当然 — — 我们都将受益于更易于理解的用例,以展示这项技术的潜力。在这一层面上,DePIN展现出了独特价值 — — 它堪称加密激励机制创造现实世界效用的最佳范例,使得个人能够构建并参与以前不可能实现的物理网络。当前大多数加密项目完全依赖于软件的成功,而DePIN则强调实体世界可触可感的硬件设施。叙事和讲故事是每次技术浪潮的重要组成部分,无论我们是否喜欢,整个加密行业都需要以更有效的方式讲述DePIN的故事。
尽管有少数行业领导者(例如 Helium、Hivemapper 和 Livepeer),但随着 DePIN 的成熟,仍有许多未被解决的问题。其核心价值主张是颠覆传统的基础设施提供和管理模式。通过实施加密激励措施,DePIN 可以实现:
- 更高的资源利用率
- 更高的透明度
- 基础设施的民主化建设和所有权
- 更少的单点故障
- 更高的效率
从理论上来说,所有这些都将实现更具弹性的现实世界基础设施。
我们认为 DePIN 的另一个核心价值主张是它能够通过加密经济模型彻底颠覆现有的商业模式。尽管总有人会以怀疑眼光看待某些DePIN项目,并愤世嫉俗地将它们视为需要人为代币激励的商业模型较弱的企业。但本报告将强调,在某些情况下,区块链的引入实际上会极大地改善现有模型,或者在某些情况下引入一个全新的模型。
虽然我们对此有自己的看法,但我们大多忽略了长期在哪里构建这些网络仍是一个悬而未决的问题:Solana 已成为 DePIN 生态的聚焦点,然而无论选择何种底层协议,都不可避免地面临权衡取舍。
与所有网络类型一样,DePIN的发展需要聚焦两个核心维度:需求侧与供给侧。可以说,需求侧的验证难度(几乎)总是更高。对此最直观的解释是:代币激励模型天然更容易映射到供给侧。如果你已经拥有汽车或闲置的GPU算力,那么加装行车记录仪或提供空闲计算资源几乎无需额外成本。这方面几乎没有摩擦。
但说到需求,产品或平台必须为付费用户提供真实价值。否则,需求永远不会形成,或沦为投机性资本。举一些实际的例子,Helium Mobile 的需求方是寻求更优蜂窝网络资费方案的用户。Hivemapper的供给侧是提供高精度地图数据赚取代币的个人贡献者。重要的是,这两个案例都很容易理解。
讨论供需关系时,必须深入探讨支撑所有DePIN活动的核心要素:代币激励机制。
如果不扩展支撑所有这些 DePIN 活动的核心部分:代币激励,你就无法讨论供需问题。今年夏天的一份报告中,1kx详细分析了多个DePIN项目的成本结构,并评估了这些系统的可持续性。关键结论是:将奖励分配与运营成本及需求增长相匹配是困难的,更不用说为每个DePIN项目建立一个通用的模型了。一概而论是行不通的,尤其是在涉及现实世界经济如此多元的垂直领域中。这些网络试图重塑的市场复杂性使它们既令人振奋又充满挑战。
尽管各项目模型存在一些差异,但在大多数情况下,DePIN 项目的成本结构来自于:a)确定节点运营商的参与成本;b)确定网络节点的运行效率;c)检查项目会计机制之间的差异。
这份报告绝对值得一读,但其中有一个重要的启示:你不能概括代币经济学,也不能根据另一个项目未能正确维持代币激励而对一个项目做出假设。更重要的是,不能仅凭代币经济学就否定整个DePIN领域。特别是从 DeFi 来看,至今仍未出现既能奖励新用户又能持续激励存量资金的可持续代币经济模型。传统DePIN模式带来的资本支出(CapEx)降低,不仅使网络启动和业务运营更加便捷,还使其在系统建设方式上与传统模式形成竞争优势(我们将在全文中深入探讨这一点)。
我们认为,一个常被忽视的关键点,是网络效应的真正含义。
我们常将这些系统称为网络,有时甚至将其与网络效应原则混为一谈。在理想情况下,DePIN网络会先启动其中一侧(通常是供给侧),随后需求侧开始增长,进而吸引更多供给侧资源加入,形成价值呈指数级扩张的良性循环。但仅存在双边市场并不等同于具备网络效应。
那么,现有业务是否具有某些特定属性,能够使得 DePIN 成为有吸引力的颠覆模式?我们认为,当至少满足以下条件之一时,DePIN模型将展现出独特优势:
- 单一供应商扩展基础设施成本高昂或流程繁琐
- 存在提升供需匹配效率的机会
- 能够通过盘活闲置资产加速实现更低成本的终局状态
为便于理解报告结构,我们将按前文提到的六大类别进行划分。每个部分都将涵盖核心概念或问题、现有团队的解决方案,以及我们对行业持久性的看法和仍待解决问题。如果您想直接了解我们的内部想法,报告最后部分探讨了我们期待合作共建的一些DePIN创新理念。
Telecom & Connectivity 电信与连接
现代电信行业主要在 20 世纪 90 年代发展,当时有线技术迅速被无线技术取代。手机、无线计算机网络和无线互联网刚刚进入更广泛的零售领域。如今,电信行业规模庞大且复杂,管理着从卫星到有线分销、无线运营商再到敏感通信基础设施等一切事务。
每个人都熟悉该领域中一些最大的公司:AT&T、中国移动、康卡斯特、德国电信和 Verizon。从规模来看,传统无线行业在三个主要领域(移动、固定宽带和 WiFi)创造了超过 1.5 万亿美元的全球年收入。让我们快速区分一下这三个领域:
- 移动通信行业建立并维护着人与人之间的联系;每当你拨打电话时,都在使用移动基础设施。
- 固定宽带行业是指通过固定连接(通常通过电缆、光纤、DSL 或卫星)为家庭和企业提供的高速互联网服务,并提供更稳定、更快速、在某些情况下甚至不限流量的数据连接。
-
WiFi行业管理着最广泛使用的连接协议,使每个人都能访问互联网并相互通信。
大约两年前, EV3 团队分享了一篇帖子,详细介绍了篇现有电信公司的状况。
“凭借价值2650亿美元的生产性物理资产(包括无线电设备、基站、铁塔等),电信公司每年产生3150亿美元的服务收入。换言之,生产性资产周转率为1.2倍。相当不错!”
但这些公司需要数十万名员工和价值数十亿美元的资源来继续管理这些不断增长的基础设施。我们鼓励您完整阅读这篇帖子,因为它进一步探讨了这些公司如何纳税、更新基础设施、管理许可证,并最终保持运营。这是一种难以控制且不可持续的模式。
最近,Citrini Research揭示了现有电信巨头面临的一些迫在眉睫的问题。他们详细介绍了许多此类公司的财务状况,并描绘了一幅令人担忧的画面:过度乐观的预测(归因于疫情)导致许多企业积压了大量难以部署的库存。具体而言,这包括在光纤到户(FTTH)个人连接热潮后,资产负债表上积压的大量光纤电缆。问题在于这些库存无处消化。Citrini进一步指出,需求已从个人连接转向“共享园区和城域网络以部署库存并支持新技术繁荣” 的扩展接入。
电信公司将无法快速推出新的供应,而需求增长已经达到难以跟上步伐的地步 — — DePIN 可以填补这一供应缺口。这为去中心化无线项目创造了一个独特的机会,既能以比现有运营商更快的速度扩大网络规模增长,又能同时满足日益增长的有线和无线基础设施需求。Citrini 特别指出了对光纤网络和 WiFi 热点的需求,虽然光纤节点的去中心化部署尚未深入探索,但 WiFi 热点的实施如今是可行的,并且已经在进行中。
我们之前提到了无线技术的三大支柱,现在让我们更深入地研究每一个支柱,并将它们的去中心化模型与当今现有的电信行业进行比较。
Mobile Wireless 移动无线
移动无线可能是去中心化无线(DeWi)中最知名的子领域,在此背景下,它指的是通过分布式节点网络提供蜂窝连接(即 4G 和 5G)的去中心化网络。如今,传统的移动无线行业依赖于为特定地理区域提供覆盖的蜂窝塔网络。每个塔使用无线电频率与移动设备通信,并通过回程基础设施(即光纤)连接到更广泛的网络。核心网络处理所有的交换、路由和数据服务 — — 一个集中式提供商将蜂窝塔连接到互联网和其他网络。
我们知道,基础设施的建设是资本密集型的,而部署 5G 需要更密集的网络,尤其是在城市地区,需要更多的塔。农村和偏远地区通常缺乏覆盖,因为潜在用户数量较少,投资回报率较低,这使得向这些地区扩展覆盖成为一项挑战。
虽然基础设施的实际建设成本高昂,但这也带来了持续维护的需求。除了维修、软件更新和升级以支持新技术(例如 5G),在高密度地区,网络拥塞问题可能会降低服务质量,需要对网络优化和容量升级进行更多持续投资。顺便说一句,这是这些运营商早就应该预见到的问题。
虽然基础设施的实际建设成本高昂,但这也带来了持续维护的需求。除了维修、软件更新和升级以支持新技术(例如 5G),在高密度地区,网络拥塞问题可能会降低服务质量,需要对网络优化和容量升级进行更多持续投资。顺便说一句,这是这些运营商早就应该预见到的问题。
数据驱动的市场前景和无限的增长潜力使得频谱成本从 2G 时代的 250–300 亿美元增加到 3G 时代的 1000 亿美元。资本成本上升,以增强核心基础设施并将移动网络扩展到 2010 年覆盖全球一半以上的人口。尽管 3G 带来了用户数量的快速增长,但成本的上升开始超过收入的增长。虽然黑莓是 3G 时代的标志性设备,但 iPhone 显然是塑造和主导 4G 的设备。
这两种技术(4G 和 iPhone)将互联网带到了手持设备上,数据使用量从 2010 年每部手机每月平均不到 50 兆字节(MB)垂直增长到 4G 时代末的 4 吉字节(GB)。问题是,虽然数据收入增长,但远远不足以抵消传统语音服务和短信收入的急剧下降(仅在 2010–2015 年间每年下降约 35%)。此外,运营商不得不花费超过 1.6 万亿美元用于频谱、核心网络升级和基础设施扩展,以满足对网络容量和覆盖范围的无休止需求。
去中心化无线领域最常与 Helium 联系在一起。在我们看来,这是理所当然的。Helium 成立于十多年前,最初的愿景是为物联网(IoT)创建一个去中心化的无线网络。目标是建立一个全球网络,允许低功耗设备无线连接到互联网,从而实现广泛的应用。虽然网络在增长,但物联网市场本身在规模和经济潜力方面显示出局限性。作为回应,Helium 扩展到移动电信领域,利用其现有基础设施,同时瞄准更具利润和数据密集型的市场。最终,Helium 宣布推出 Helium Mobile,这是一项旨在构建去中心化移动网络的新举措 — — 这一举措显然与 Helium 创建去中心化无线生态系统的更广泛愿景相一致。今天,Helium 的覆盖网络中有超过 100 万个热点,其移动网络的用户超过 10.8 万。
Helium 的物联网平台致力于连接低功耗、低范围设备,以支持智能城市或环境监测等利基网络。该平台由 LoRaWAN(低功耗广域网络)协议提供支持,旨在将这些电池供电的设备连接到区域、国家或全球网络中的互联网。LoRaWAN 标准通常针对双向通信,允许双方或多方在两个方向上进行通信(发送和接收)。
物联网网络由车辆和电器等设备组成,这些设备通过传感器和软件在网络内连接,使它们能够通信、管理和存储数据。Helium 的物联网平台是围绕这样一个理念形成的:世界上的应用程序将需要广泛的覆盖和低数据速率。虽然个人可以在世界任何地方以相对较低的成本启动热点,但大多数电器只需要偶尔发送数据,这使得运行传统基础设施的成本在资本上效率低下。
通过将 LoRaWAN 与 Helium 构建的去中心化网络相结合,现在可以降低资本支出并扩大网络的覆盖范围。Helium 批准了超过 16 种不同类型的热点供运营,每种都相当实惠。
Helium Mobile 计划是作为传统无线提供商的替代方案而创建的。最初,团队创建了一个可以与传统蜂窝网络共存的去中心化移动网络,引入了移动虚拟网络运营商(MVNO)模型,Helium 可以通过与现有运营商合作提供无缝覆盖,同时利用其网络提供额外的容量和更低的成本。这种混合方法让 Helium 能够在扩展其去中心化网络的同时提供有竞争力的移动服务。Helium Mobile 与现有的 5G 基础设施兼容,为智能手机、平板电脑和其他需要高速连接的移动设备提供低成本平台。
Verizon 和 AT&T 各有超过 1.1 亿用户,个人月平均套餐为 60–90 美元,家庭套餐为 100–160 美元。相比之下,Helium Mobile 提供 20 美元/月的无限套餐。这怎么可能?
这要归功于 DePIN(去中心化物理基础设施网络)的核心优势之一 — — 大幅降低资本支出。传统电信公司需要自己建设所有基础设施并进行持续维护。反过来,这些运营商将部分成本以更高的月费形式转嫁给客户。通过引入代币激励,像 Helium 这样的团队可以解决启动问题,同时将资本支出转嫁给其热点管理者网络。
我们在本报告的引言中指出的一点是,最终这些 DePIN 团队需要提供具有真实需求的产品和服务。就 Helium 而言,我们看到他们与世界上最大的移动运营商取得了有意义的进展。最近与 Telefonica 的合作扩展了 Telefonica 的覆盖范围,并允许将移动数据卸载到 Helium 网络。
具体到卸载,一些粗略的计算表明,仅从移动卸载就可以获得可观的收入。假设移动用户每月消耗约 17 吉字节的数据,而 Helium 的运营商卸载服务从大型运营商那里接收约 5% 的数据使用量,这将带来超过 5000 万美元的收入。这里显然有很多假设,但我们正处于这些协议的早期阶段,如果客户转换率或卸载率更高,这些收入可能会大幅增加。
Helium是去中心化网络规模化力量的绝佳例证。十年前这样的项目是不可能实现的。当时比特币还非常小众,很难让人们在家里搭建比特币矿机,更不用说为加密领域中一个非常新兴的行业搭建热点了。Helium当前和未来的成功对整个领域都是净利好,前提是他们能够获得相对于传统竞争对手的市场吸引力。
接下来,Helium将专注于扩大覆盖范围,并拥有独特的能力来针对其最常看到覆盖切换到T-Mobile的地区进行增长。这是代币模型的另一个微妙好处 — 当Helium收集到最常见覆盖中断区域的数据时,它可以向最靠近这些区域的人提供激励,快速瞄准高密度但未覆盖的区域。
DePIN移动领域还有其他公司正在开发自己的创新解决方案:Karrier One和Really就是两个例子。
Karrier One自称是世界上第一个运营商级、去中心化的5G网络,将传统电信基础设施与区块链技术相结合。Karrier的方法与Helium非常相似,网络中的个人可以设置节点 — 类似于Blinq Network的PC-400和PC-400i的蜂窝无线电(运行在Sui之上)。
Karrier的硬件与Helium非常相似,但它们的软件和GTM(进入市场策略)有所不同。Helium希望尽可能覆盖全球大部分地区,而Karrier最初专注于服务不足或偏远地区。他们的软件能够利用连接到移动设备SIM卡的电话号码来收发付款,超越银行系统。
用他们自己的话说,Karrier能够创建”一个虚拟手机号码用于你所有的web3通知、支付、登录、权限等更多功能”,称之为KarrierKNS。这使得Karrier可能更适合没有健全银行基础设施的社区或地区,而Helium可能更适合更发达地区想要降低手机套餐费用的个人。
Karrier的网络架构由基础节点、网关节点和运营节点组成。基础节点管理认证和区块链维护,网关节点处理终端用户的无线接入,运营节点提供传统电信模块。所有这些都运行在Sui智能合约之上,由Karrier One DAO(KONE DAO)管理内部审查流程。他们对区块链技术的使用围绕以下原则:
- 智能合约优于权威和官僚流程
- 区块链让用户获得对其数据的权力和隐私,同时保持透明度
- Karrier One网络的代币经济学为网络参与者之间的共同成功铺平道路
与Helium相比,Karrier显然还处于起步阶段,但可以有不止一个DeWi协议获得成功。具体能有多少个还有待观察,尽管我们经常看到传统电信市场中MVNO(移动虚拟网络运营商)以十亿美元左右的估值易手。电信行业显然也存在一定程度的寡头垄断,如Verizon和AT&T。Karrier可能成功的地方在于通过其KarrierKNS计划为无银行账户的人提供银行服务,而Helium则逐步蚕食传统电信市场份额。这里一个相关的说明是Karrier强调其网络的未来适应性,以容纳5G、边缘计算和进一步的技术进步。这在实际中意味着什么技术能力超出了本报告的范围,但可以说在传统电信行业对6G投资持谨慎态度的时候,这是一个有趣的定位。
Really是全球首个完全加密的隐私无线运营商,用户通过在全球范围内部署小型蜂窝无线电设备参与网络建设。该项目的核心在于确保所有网络传输数据的私密性 — — 传统手机套餐用户并不真正拥有自己的数据,这使得Really成为用户至上的电信项目先驱。
Really提供的数据显示,每4个美国人中就有1人遭受过网络犯罪侵害。用户数据泄露规模惊人,且这一问题只会随时间推移愈发严重。随着智能冰箱、智能汽车、智能门锁、家用机器人等物联网设备的普及,网络攻击面正在急剧扩大。
除此之外,现代互联网很少能保持匿名性。现在想要在任何地方注册新账户而不透露个人信息变得越来越困难。大多数公司以吸收大量用户数据而闻名,而由于人工智能的发展,这种数据收集只会越来越多。
传统电信需要大型基站塔,这自然会导致覆盖范围存在地理空白。Really通过在网络参与者家中部署这些小型”基站”的基础设施来弥补这一缺陷。
他们的移动套餐为客户提供完整的身份保护与监控服务,包括自主研发的安全套件(防蠕虫、防勒索软件),以及SIM卡交换保护和保险服务。Really首先旨在为客户提供保护性的定制移动套餐。目前其无限套餐价格为每月129美元,包含无限数据、通话和短信,可拨打175+个国家的无限电话,全程加密,以及通过Really VIP计划提供的贵宾服务。这借鉴了类似于私人医疗服务的商业模式,因为越来越多的消费者寻求传统供应商无法提供的定制服务。
这种对DePIN移动领域的方法确实独特,因为它通过功能和隐私而非成本来区分自己。显然现在还太早不能做出太多推断,但作为一种总体思路 — — 基于尚未被广泛接受的核心理念(在本案例中是隐私和加密的重要性)来建立差异化,是在竞争激烈的市场中开辟空间的一种方法。
很容易论证移动无线是DePIN中最有前景的领域。智能手机无处不在。由于eSIM的出现,这个行业还受益于较低的转换成本,用户不再需要实体SIM卡。这使得用户可以在一张eSIM上存储多个运营商的服务,这对经常旅行的人来说更加方便。这种情况应该会持续下去。假设这种情况持续,移动DePIN利用并可能通过eSIM技术进步实现新突破的理由就会更加充分。
虽然智能手机和其他移动设备是强大的传感终端,但它们也面临一系列独特挑战:
- 持续的数据收集会引发隐私问题和设备耗电问题
- 用户自愿提供的数据通常留存率很低
- 数据挖掘会吸引某些用户,导致数据集出现意外偏差
- 空投投机者使得难以区分真实用户和虚假流量
- 防御性容易陷入代币奖励的恶性竞争
这些问题并非无法解决。首先,”选择退出”功能或完全删除数据的选项可能会吸引那些对数据收集持怀疑态度的用户。仅仅是提供退出选项本身就是一个强有力的信任信号。我们也看到针对空投投机者的大规模打击行动,LayerZero就是最明显的公开案例。
值得注意的是,移动无线通信在电信行业中每GB收入最高。移动设备需要持续连接,这使得运营商相比固定宽带或WiFi拥有更强的定价权。此外,5G等连接标准的持续改进带来了更快的速度和更高的性能,进一步强化了这种定价优势。
那么5G之后是什么?没错…6G。
6G承诺实现现有智能设备间的即时通信,并支持新一代可穿戴设备的普及。虽然现在讨论还为时过早,但它本质上就是性能更强的5G升级版。有趣的是,6G面临的关键问题之一是如何协调现有利益相关方达成共识。目前电信设备商、政府、移动运营商、半导体制造商和设备厂商对6G的目标、特性和要求都缺乏统一认识。下图(虽然复杂)显示各方唯一达成共识的是:对6G如何在现有基础设施上创造价值普遍持怀疑态度。
理解这些利益相关方的分歧点,以及在争议中哪些群体最可能”胜出”,对于把握行业发展至关重要。这也是我们认为DePIN特别有吸引力的原因 — — 我们看到来自其他科技行业的资深从业者正将他们的专业知识带入这个领域解决问题。虽然深入研究这些动态需要更多工作,但在这个巨大市场中获胜的回报将是惊人的。
Fixed Wireless 固定无线
顾名思义,固定无线指的是通过固定连接提供的高速互联网服务,通常采用电缆、光纤、DSL或卫星技术。相比移动网络,固定宽带能提供更稳定、更快的数据连接。具体可分为:
Fiber optics 光纤
- 通过玻璃或塑料纤维传输光信号
- 可提供1Gbps以上的超低延迟连接
- 最适合在线游戏、视频会议和云端应用
- 是固定宽带的黄金标准,最具前瞻性
- 在人口稀少地区铺设成本高昂
Cables 电缆
- 使用同轴电缆(最初为电视铺设)提供网络
- 现代系统通常采用光纤骨干网与同轴电缆结合的混合方案
- 理论速度可达1Gbps,但实际性能会受高峰时段影响
- 延迟低于光纤,高流量时性能下降
- 随着DOCSIS 4.0技术的发展,电缆理论速度可达10Gbps,接近光纤性能
DSL
- 通过传统电话铜线提供网络
- 最古老的宽带形式之一
- 速度通常为5–100Mbps,延迟较高
- 逐渐被淘汰
Satellites 卫星
- 通过地球轨道卫星提供网络
- 传统使用高轨道地球同步卫星,新兴的低地球轨道(LEO)卫星正在改变这一领域
- LEO速度50–250Mbps,延迟20–40ms
- 地球同步卫星因传输距离远延迟高,LEO显著改善了这一问题
- 覆盖全球
- 在地面基础设施缺乏地区增长潜力大
- 在已有光纤和电缆的城郊地区主要起补充作用
由于更换供应商的困难(如安装成本和停机时间)以及固有的套餐捆绑(如有线电视宽带),固定宽带目前拥有更高的用户黏性和留存率。
表面看前景乐观,但其中存在几个值得商榷的假设。最切实的高影响威胁来自5G和未来的6G技术 — — 数千兆速度和低延迟可媲美光纤宽带,还具备移动性和易部署优势。很可能出现用户大规模弃用固定服务的情况,特别是在城郊地区。
另一个潜在威胁(虽然影响更长期)是LEO卫星宽带系统。虽然目前Starlink和Project Kuiper价格昂贵且性能不足,但随着数据上限取消和成本下降,长期看将成为固定宽带的有力挑战者。
忽视这两大威胁可能导致该领域建设者面临用户流失风险(特别是光纤、电缆和DSL宽带供应商)。
固定互联网每GB收入仅为移动无线的十分之一,那么这些公司如何盈利?核心商业模式来自月费套餐、分级服务和针对不同企业的定制方案。他们可以向企业收取定制解决方案费用(如对冲基金争抢更好的地下电缆位置)、高价提供更快的网速,以及捆绑服务(有线电视、网络和电话)。美国主要供应商包括康卡斯特(Xfinity)、特许通信(Spectrum)、AT&T、Verizon和CenturyLink,国际上有沃达丰、英国电信和德国电信等。虽然康卡斯特和特许通信目前主导美国固定宽带市场,但AT&T和Verizon等光纤供应商正通过积极铺设光纤到户(FTTH)快速抢占份额。
固定互联网采用点对多点(PtMP)技术,即单个中心节点(基站)通过共享通信介质连接多个终端节点(用户)。在固定无线中,这意味着中央天线向多个接收器发送信号。早期PtMP的主要挑战是同频段设备干扰导致的信号衰减和性能下降,另一个障碍是PtMP架构的共享特性导致带宽有限,用户增多时速度下降。
如今,通过采用更先进的调制方案(OFDM、MIMO)和更高频段(mmWave),PtMP系统效率得到提升,实现了更大带宽支持更多用户。但毫米波信号仍易受衰减影响 — — 降雨、树叶和物理障碍都会显著降低性能。固定互联网领域仍在发展演变,为DePIN新锐提供了用独特解决方案进入的空间。
Andrena和Althea是DePIN固定无线领域较知名的两家公司。Andrena以具有竞争力的价格为多户住宅(MDU)提供高速网络,其独特市场策略是最大限度减少客户安装需求。如前所述,由于转换成本和迁移物理基础设施的困难,固定互联网用户更具黏性。
Andrena采用固定无线接入(FWA)技术,通过无线信号而非电缆提供宽带服务。FWA部署成本远低于有线宽带,扩展更快,但更容易受干扰、环境影响和性能波动影响。该公司在屋顶部署天线覆盖广泛区域 — — 公寓楼、写字楼等高密度场所。基础套餐100Mbps收费25美元/月,200Mbps收费40美元/月,平均比Verizon或AT&T便宜约30%。通过与房地产公司和业主建立收入分成合作模式加速天线部署,业主既能为住户提供高速网络作为增值服务,又能获得收入分成。Andrena初期主攻纽约、佛罗里达、新泽西、宾夕法尼亚和康涅狄格等市场。
最近Andrena宣布推出去中心化协议Dawn。此前公司运作类似传统企业,只是对外宣传去中心化理念。Dawn通过Chrome扩展程序连接网络服务的买卖双方,理论上让个人成为自己的网络供应商。关键问题是价值将如何积累 — — 是流向实验室等实体,还是真正回归代币?
Messari的Dylan Bane在深度报告中指出,宽带领域面临类似区块链三难困境的权衡 — — 只不过宽带的三难困境在于服务交付方式。同轴电缆、光纤、DSL和卫星等技术各自处于”最佳性能但最差扩展性”或”最差安全性但最佳性能”等不同象限。
需要注意的是,这反映的是当前静态状况,而我们更关注未来发展趋势。重要的不是这些技术现在的位置,而是它们向矩阵右上角发展的可能性。这将决定初创企业的战略和成败。
需要指出的是,将光纤置于扩展性最底端的观点有失偏颇 — — 虽然铺设成本高,但人口密集区已完成光纤部署。虽然难以扩展至新区域,但光纤已牢牢占据城郊市场。
Dawn项目的核心理念在于:近年无线技术的进步使得企业能够以更低成本与光纤供应商竞争。其白皮书指出,多千兆容量、机械波束成形和高频免许可频谱是关键技术突破,并将Dawn协议定义为:
无需可信中介直接连接用户与互联网交换节点
将批发与零售网络价格的百倍价差压缩至最低
通过整合家庭节点消除对单一网络路径的依赖
Dawn网络由带宽节点、分发节点和终端用户组成,通过协议实现去信任化的带宽需求匹配。其目标是构建设备网络的同时保持供应商中立性。多数DePIN项目面临优质供应商筛选、用户外部平台跳转及硬件入户部署等挑战,而Dawn选择优先采用60GHz毫米波和6GHz频段技术,正是看中其短距通信特性和高带宽传输能力。
该项目选择Solana区块链管理服务合约,这些合约用于记录网络节点与终端用户间的服务协议。协议将引入带宽证明(PoB)、服务证明(PoS)和位置证明(PoL)三大机制来协调参与者交易。其中带宽证明虽非首创,但Dawn旨在通过代币经济实现规模化家庭ISP的可持续运营。位置证明机制(将在后文详述)则作为用户身份与实时位置的数字凭证。
Dawn系统引入了一种称为”勋章”(medallions)的新机制,本质上这是一种可质押的记账单位,持有者可获得高价值区域链上收入的12%分成。这些勋章充当接入Dawn网络的网关 — — 假设去中心化宽带业务起飞并最终颠覆传统运营商,勋章持有者获得的12%收入分成将极为可观。
凭借与Andrena现有客户群的关系,Dawn初期部署将覆盖超过300万家庭用户,预计为其带来超过100万美元的年度经常性收入(ARR)。该系统设计使得早期参与者可通过质押勋章,分享网络扩张带来的持续收益。
Althea
Althea的定位略有不同,它将自己打造成一个为基础设施和网络连接提供支持的支付层。它是一个Layer 1区块链,为后续的Layer 2网络提供专用区块空间,支持机器对机器(M2M)的微支付服务,并通过合约保障收益,同时在硬件开发上保持兼容性。听起来有点复杂……这到底是什么意思?它和固定无线网络又有什么关系?
实际上,Althea是一个协议,允许任何人安装设备、参与去中心化的互联网服务提供商(ISP)运营,并因此赚取代币。其核心理念是让用户之间直接买卖带宽,绕过传统固定网络服务商的中间环节。Althea实现这一目标的方式是借助专门的中间节点,这些节点通过互联网交换点(IXP)或传统ISP的商业级连接,将去中心化网络与更广泛的互联网直接对接。
那么,什么是互联网交换点(IXP)?
IXP是一种物理基础设施,让多个ISP能够直接互联并交换流量。与通过第三方网络路由不同,IXP的参与者可以直接交换流量,从而降低成本。IXP的核心原则是促成网络之间的“对等互联(Peering)”协议:
- 公共对等互联(Public Peering):通过IXP的共享基础设施实现,多个网络连接到一个公共交换机,允许大量参与者之间广泛交换流量。
- 私有对等互联(Private Peering):发生在同一数据中心或IXP设施内的两个网络之间的直接专用链路,通常用于两个特定网络之间的大量流量交换。
由于网络之间直接连接,IXP通常能提供比传统ISP路由更低的延迟和更高的速度。减少中间跳数意味着数据包能更快到达目的地。大多数普通消费者仍然通过ISP而非直接从IXP获取网络服务,主要是因为“最后一英里”连接、用户设备兼容性和网络架构设计等问题。
DePIN的优势之一在于,它能在项目运营初期降低成本,并将这一原则贯穿整个项目生命周期。在Althea的体系中,节点能够根据可验证的供需动态调整成本,使其成为固定互联网服务市场的真实价格发现机制。
Althea允许参与者将资金和基础设施代币化上链,称之为”流动基础设施”(Liquid Infrastructure)。该模式具有透明所有权的优势,并让用户有机会在项目初期进行投资 — — Althea上的每个人都有机会成为主要利益相关方,并影响项目发展方向。Althea L1提供快速终局性、低成本的支付结算、集成EVM以及轻客户端验证功能(后文将详述)。其架构灵活支持各类DePIN相关网络建设,更像是为微型网络提供结算层或聚合功能;类似于专注于构建RWA或DeFi应用生态的L1/L2。
Althea的核心技术创新源自Chapin & Kunzinger(2006)和Chrobozek & Schinazi(2021)两篇论文,使网络中的节点能够通过其区块链架构实现基于微支付的自主计量与结算。这项创新被称为边界网关协议(BGP),是其运营的核心支撑。Althea网络中定义了以下角色:
用户节点:由个人安装,与传统ISP路由器/调制解调器非常相似,但独立于任何ISP运行。这些节点为Althea网络中的设备提供WiFi和局域网连接。
中介节点:由希望通过转发互联网流量获利的连接服务提供商安装。这些节点需要更精细的部署位置,以获得更好的流量接收视野。
网关节点:中介节点的特殊版本,”通过互联网交换点或传统ISP的商业级连接等低成本来源,将Althea网络直接连接到更广泛的互联网”。
出口节点:部署在数据中心,可通过互联网访问,通过”VPN隧道”连接到这些网关节点 — — 这些是用户设备连接与互联网之间的安全加密通道。Althea中的出口节点负责测量网络质量并处理ISP的”法律责任”(版权问题和地址转换)。
Althea的路由由Babel协议管理,该协议”检查特定路径上每个路由器的服务质量,并提供综合评分与其他潜在路径进行比较”,确保Althea能够提供最高质量的服务和更快的连接速度。
上述微支付功能是通过Althea路由器为网络中的每个相邻节点建立内部账户实现的。带宽根据具体任务进行计量、跟踪和使用,支付自动完成并记录在链上。Althea采用”先用后付”模式,避免过度依赖信任假设,因为在”预付费”模式下,恶意节点更可能阻碍新客户使用Althea。
用户吸引力是Althea面临的主要问题之一 — — 由于Solana凭借极低成本、压缩NFT和高吞吐量已成为DePIN项目的主要选择,希望在L1上构建网络的团队需求不足。如果相对于已有用户和流动性的公链没有差异化优势,再高性能的L1又有什么意义?
目前尚不清楚Althea倾向于在其网络中启动哪些类型的DePIN项目,尽管该团队在沟通方面做得相当好,看起来也很活跃。专为DePIN设计的L1这个概念也很有趣 — — 我们目前看到的其他垂直领域专用L1只有Plume(针对RWA)、Immutable(针对游戏)和Filecoin(针对存储)。如果DePIN领域继续吸引更多优质团队部署具有实际产品的项目,Althea就有机会在这个领域找到自己的定位。
固定无线领域的发展前景存在最大不确定性,这主要取决于移动无线技术的演进。一方面,可能出现5G和6G在中短期内无法达到固定宽带同等性能水平的情况,使后者保持现有市场地位;另一方面,5G、6G和低轨卫星宽带也可能以超预期的速度完全取代固定无线服务。虽然押注技术发展放缓通常并非明智之举,但围绕移动无线技术发展仍存在诸多变数,这为替代性固定无线解决方案提供了合理的发展空间。
WiFi
DeWi的最后一个细分领域是WiFi — — 虽然无处不在,但在无线服务收入市场所占份额并不大。这主要因其盈利困难:消费者已习惯随处享受免费WiFi,因此AT&T、康卡斯特和Spectrum等电信运营商建设大型公共WiFi网络,主要是为了分流移动数据流量或增强客户黏性。
在企业端,这类合同通常是与WiFi供应商签订的长期协议,有助于提升用户留存率。坦率地说,这可能是最缺乏吸引力的建设领域:市场上早已充斥大量低价供给。而在偏远地区,用户的付费意愿和能力都极其有限,难以对传统供应商形成”吸血式”冲击。
当然,WiFi仍是全球使用最广泛的连接协议,能兼容最多样化的设备。如今我们家中几乎所有设备都能连接WiFi,未来智能设备还会更多。从某些方面看,WiFi就像是支撑所有网络交互的基础语言。但这未必能使其成为最具颠覆潜力和价值捕获空间的未来赛道。
这种情况或许解释了为何该领域的建设者相对有限。目前最知名的WiFi DePIN团队包括Dabba和WiCrypt。
Dabba
Dabba正在建设一个去中心化的连接网络,重点布局印度市场。该团队目前的策略是优先部署低成本热点设备,模式类似Helium但专注于WiFi领域 — — 目前已投放超过14,000个热点,网络数据消耗量突破384TB。
他们的核心理念基于印度经济增长背景和庞大人口需求。这个国家需要建设更高效的基础设施,在运行时间和可接入性方面与中心化服务商竞争。团队没有盲目追求热点数量,而是先将设备部署在数据需求较高的区域,通过口碑传播为项目奠定初期基础。
在去年底的一篇博客中,团队分享了印度电信行业概况:虽然人口超过14亿,但宽带服务用户仅3300万,5G网络用户更是只有1000万。
如今,Dabba 的首要任务是扩大其网络并减少加入的阻力。Dabba 认为,虽然 4G 和 5G 连接是必要的,但印度的企业和家庭需要光纤来促进这些移动和固定宽带网络之间的连接。随着时间的推移,目标是建立最大、最分散的网络,以更低的成本为印度提供电力。
网络架构非常简单:Dabba 网络的利益相关者包括热点所有者、数据消费者和管理供应商和消费者之间关系的本地有线电视运营商 (LCO)。他们的策略已转向通过 LCO 网络瞄准印度一些较为偏远的地区,此前他们最初在人口密集且对 WiFi 需求较高的城市部署。
WiCrypt
另一个构建去中心化WiFi基础设施的项目是WiCrypt — — 他们希望通过动态成本结构和全球热点网络,让任何人都能成为互联网服务提供商。这看起来与Dabba的构建方向类似,主要专注于让个人或企业能够有偿共享WiFi带宽。根据WiCrypt浏览器显示,目前已发放超过29万美元奖励,并在欧洲、亚洲、非洲和美国建立了可观的网络覆盖。
必须承认,其网络规模远小于我们目前观察到的其他项目。WiCrypt白皮书特别指出了几个主要问题领域:
- 实施互联网内容审查的国家
- 由九家企业垄断95%以上收入的ISP寡头垄断行业
- 现有ISP的滥用政策和越界行为
这些观点切中要害,突显了催生去中心化无线网络的核心问题 — — 消费者被迫接受次优选择,且通常难以承受转换成本。WiCrypt旨在让任何人都能成为ISP次级零售商,使其能够在现有基础设施和商业条款之外制定更有利的条件。鉴于当前公共WiFi的普及程度,这种商业模式似乎颇具挑战性。从资本角度考量,也很难想象需求端(即需要网络接入的用户)规模足以激励供应端的持续投入。
WiCrypt的架构包含:硬件(热点设备)、移动应用(提升易用性)、路由器、云服务器、固件。路由器将所有传入交易批量处理并上传至区块链,再通过与基于Linux的固件交互来管理”流量控制”和路由器活动。用户通过WiCrypt移动应用处理WNT代币支付、身份验证、数据管理等市场相关操作。云服务器与智能合约连接并确认数据证明,作为链上信息的二次验证机制。
去中心化无线网络理应获得高度关注,因为一旦成功将带来巨大收益。电信行业支撑着全球工作、生活和休闲的通信需求。去中心化这一技术栈虽任务艰巨,但鉴于传统电信未来发展存在不确定性,这仍是值得探索的方向。再加上该垂直领域成功执行可能带来的巨大回报,显然我们将持续见证激烈竞争。
市场近期对Helium成功的认可证明:建设者无需过度关注市场评价,持续为网络创造价值才是关键。这种价值创造终将获得认可。同时也显示出T-Mobile和Telefonica等传统运营商愿意拥抱这种范式转变。
如果您认为电信行业存在低效、过时和管理不善的基础设施,请拭目以待下一个章节:去中心化能源电网。
Energy 能源
我们曾多次撰文探讨分布式能源问题。早在2023年初发布《加密未来》报告时就有涉及,后来又在我们的公共研究数据库中进行过专题分析。虽然当时关注这一领域的人屈指可数,但如今分布式能源显然已经越来越受到重视。
能源行业仍然是美国监管最严格的垄断领域之一,同时也是最适合DePIN模式的行业之一。能源市场在多个维度上都极为复杂:硬件设备、能源捕获、传输网络、融资机制、储能技术、配送系统和定价体系等。
可再生能源确实拥有重要的政策利好,特别是在监管层面。但太阳能电池板价格昂贵,并非适用于所有地区,而且前期投资的融资回报率一直不理想。电池技术正在变得更高效、更便宜,可再生能源领域的理想愿景是”太阳能+储能”的组合。而核能即便在没有加密货币因素介入的情况下,也已经很难获得支持。
当前可再生能源面临的最大问题之一是:多数能源来源都具有间歇性,且依赖天气条件(比如风力不稳定、阳光不持续)。将这些能源整合到现有电网中也具有挑战性 — — 电网必须管理波动的电力水平,这可能对基础设施造成压力。传统电网设计是基于单向能源流动 — — 从集中式发电厂到消费者。
分布式能源资源(DERs)要求电网能够处理双向能源流动,这会导致系统不稳定,特别是在DER渗透率较高的情况下。这些DERs可以包括风力涡轮机、屋顶太阳能板、智能恒温器以及定制燃料电池等各种形式。
不可忽视的是,集中式能源供应商在很多方面都具有天然垄断性 — — 他们通常拥有输电和配电基础设施,这使得他们对能源市场拥有巨大的控制力和影响力。尽管存在这些挑战,我们仍然看到智能电网技术的进步、大规模电池存储系统的发展,以及监管层面正在开放,允许DERs更充分地参与能源市场。我们始终认为,分布式能源是加密货币和DePIN的沃土。
以下是目前发展较为成熟的能源相关协议及其建设方向简要列表:
- Plural Energy:符合SEC规定的清洁能源投资链上融资平台, democratizing financial access to high-yielding energy assets(可以理解为能源领域的Ondo)
- Daylight:利用分布式能源资源,让开发者能够重新编程电网
- Power Ledger:开发用于追踪、交易和溯源能源的软件解决方案,旨在解决可再生能源并入电网时的间歇性问题
- SRCFUL:通过个人节点创建分布式能源生产网络,加速可再生能源发展(HIP 128将允许通过Helium网络进行双重挖矿)
- StarPower:去中心化能源网络,希望通过物联网连接实现虚拟电厂
- PowerPod:通过类似比特币的共享所有权模式,提供全球可靠且易用的充电网络
- DeCharge:采用OCPP全球标准的电动汽车基础设施(主要在印度市场推广)
能源DePIN领域讨论最多的话题之一就是电网去中心化的可能性。可再生能源支持者认为,虽然我们需要更多替代能源,但将它们接入电网会给本已过时且不断老化的基础设施带来更大压力。技术专家会告诉你,我们需要更多关于能源消耗和存储的实时数据、更好的计量基础设施以及更高的自动化程度。ESG倡导者则会说,我们需要一个能够覆盖农村和服务不足人群的更好的电网。如果你与AI/ML研究人员交谈,他们会告诉你需要7万亿美元来彻底重建电网。
AI对计算能力需求的不断增加以及制造业回流意味着我们的电力需求只会进一步上升。去中心化能源项目(DEP)写道:”传统电力系统的可靠性保障建立在集中控制和自上而下工程的基础之上。”这可不妙!目前的系统在很大程度上仍然是21世纪零散技术拼凑在20世纪电网上的产物,而这个电网原本是为满足资源密集型社会的需求而建造的。
DEP提出了一些关于如何改造电网的合理问题:
- 什么样的控制架构最能支持从集中式电网向去中心化电网的演变?
- 如何在实施零散升级的同时保持系统的可靠性和安全性?
用新部件替换旧部件可能导致停机,而大规模整合可再生能源也很困难。与此同时,能源生产和传输的过程本身就相当复杂。借鉴Ryan McEntush最近的一些研究,我们可以这样描绘电网结构:
- 美国电网由三大主要互联系统组成:东部、西部和德州电网;这些由17个NERC协调员、独立系统运营商和区域输电运营商管理,负责监督经济和基础设施。实际的发电和供电由地方公用事业公司或合作社处理。
- 电网运营商使用互联队列来管理新连接,评估电网是否能在特定区域支持增加的电力,并确定电网基础设施升级的成本。
如果你是一个运行太阳能板的个人房主,将能源输送回电网的过程依赖于非常复杂的技术。这包括计量系统、将直流电转换为交流电的逆变器、FiT系统(代替计量基础设施)、同步系统,以及确保房主获得适当补偿的支付基础设施。
“历史上,只有10–20%的排队项目能够实现,通常需要申请后超过5年时间才能最终连接 — — 而且这些时间线还在不断延长。”
对更多电力和更快并网方式的需求很大,但我们现有的基础设施无法跟上。能源部在2023年的一份报告中发现,区域内输电必须增加128%,区域间输电必须增加412%。这两种不同类型的输电涉及能源在发电厂、变电站、高压输电线(交流高压和直流高压)和最终用户之间的传输。
区域内挑战包括:
- 电网拥堵
- 随着更多可再生能源并入,平衡供需面临挑战
- 线路过载导致的停电和效率低下
- 扩建输电基础设施的空间限制
- 区域内电力市场碎片化
区域间挑战包括:
- 输电线路电阻随距离增加导致的线路损耗
- 电力损失造成的效率低下
- 不同标准、法规和市场结构下电网同步困难
- 区域电网间互联点的容量限制
- 跨区域电力市场碎片化
Daylight
Daylight是一个致力于将用户分布式能源资源(DER)数据出售给能源公司的协议,这些公司希望提升电网性能。其最终目标是让任何人都能通过Daylight协议构建虚拟电厂(VPP)。VPP本质上是一个由多种异构能源组成的集成系统,为电网供电。鉴于DePIN在激励和协调方面的优势,VPP特别适合采用DePIN模式。
Daylight的核心用户流程如下:
- 房主可以存储DER产生的多余能量(这是标准做法,通常多余能量足以创收并维持家庭能源消耗)
- 在用电高峰期将这些能源回馈电网
- VPP运营商可以将这些家庭聚合为能源池,并在市场上出售
“不同于必须选择单一集中式公司管理其能源资产,每个家庭或企业主可以实时将责任委托给出价最高的运营商。”
Daylight旨在为能源公司和DER所有者简化全国范围内DER的聚合过程。对房主而言,其价值主张显而易见:以更简单的方式获得更多收益。对能源公司而言,价值在于聚合能源供应并回馈电网。Daylight只是一个例子,还有其他项目正以不同方式解决类似问题。
SCRFUL采取了略有不同的方法 — 该团队在Helium生态系统中发布了治理提案(HIP 128),旨在启动一个奖励用户太阳能发电和电池储能的子网络。
其核心理念是通过允许现有兼容的Helium热点进行双重挖矿,使Scrful能够利用现有Helium网络构建VPP。与Daylight类似,该团队将首先从数据采集和聚合开始,逐步构建VPP。考虑到分布和地理分散的重要性,这一方案尤其引人注目。Helium热点所有者已经熟悉DePIN的前提,我们可以假设这是一个有积极性的用户群体。
值得注意的是,SCRFUL团队并非只是跟随分布式能源的最新趋势,而是已在该领域深耕多年。这些只是两个例子,但除了电网去中心化外,还有更多工作亟待完成 — 比如为基础设施改造融资。
Plural Energy
Plural Energy致力于让可再生能源投资变得像股票投资一样简单。要实现2030年气候目标,仍需4万亿美元的投资。无论您的政治立场如何,私人气候投资的回报都具有吸引力且稳定,但迄今为止普通投资者难以参与。Plural的解决方案是一个平台,让任何人都能获得原本无法触及的优质可再生能源投资机会。
大型基础设施项目通常具有复杂性高、资金需求大等特点,往往只面向大型投行或拥有特殊渠道的高净值个人。Plural正在降低普通投资者参与”中等规模”可再生能源投资的门槛,使其能够接触这一具备独特吸引力的资产类别。
Plural目前基于Base链运行,并已上线多个活跃投资组合。
Glow
Glow是一个致力于简化太阳能电站部署的平台,主要面向那些原先缺乏基础设施建设动力的地区。他们的白皮书中指出了一个行业难题:很难区分哪些太阳能电站需要财政支持,哪些已经能够通过发电收入实现自给自足。当然,太阳能电站是否实现利润最大化是另一个问题。但Glow提供的财政支持方案非常独特 — — 太阳能电站只有承诺将全部发电收入投入Glow激励池,才有资格获得碳信用额度。这样就避免了已经盈利的电站获得额外奖励的问题,因为碳信用收益与它们的发电收入相比微不足道。
Glow是一个采用双代币机制的区块链项目:GLW是固定通胀的代币,GCC(Glow碳信用)则是奖励代币,代表通过太阳能生产减少的1吨二氧化碳排放。链下的Glow认证机构(GCAs)负责核证碳信用额度、审计网络中的太阳能电站,并提供这些电站发展情况的链上报告。Glow的经济模式是每周铸造并分发23万枚新的GLW代币,分配给太阳能电站、资助项目、理事会成员和碳信用核证机构。
虽然我们个人对碳信用市场能否持续保持足够规模持怀疑态度,但Glow在过去几周一直是收入最高的DePIN项目之一,因此我们不得不将其纳入讨论范围。
StarPower
StarPower是另一个去中心化能源网络,旨在通过连接空调、电动汽车和家用储能电池等能源设备来提高能源效率并降低整体能源成本。他们将自己定位为”能源界的Uber”,通过整合这些设备来更有效地管理运营。该团队看到了虚拟电厂(VPP)发展中的相同机遇,其分级路线图似乎更侧重于硬件开发。
StarPower的系统允许用户将设备接入网络,这些设备将根据电力数据和设备响应获得STAR代币奖励。虽然目前主要关注热水器和空调,但他们希望最终能整合电动汽车和储能电池服务。该团队已经开发了一套产品体系,目前可购买的产品包括Starplug智能插座。这是一个简单的壁装插座,可与任何StarPower兼容设备配合使用,具有实时监控、远程控制和能源优化功能。
StarPower的其他产品包括Starbattery家用储能系统和Starcharger电动汽车充电桩。前者是家用储能解决方案,既能处理电网过剩电力,又能在停电时提供备用电源,并管理用电高峰时段的能源优化。后者是电动汽车充电解决方案,确保在非高峰时段充电,从而降低使用率并减轻电网负荷。考虑到目前各团队的地理分布差异,观察这些竞争对手如何进入市场将会很有趣。我们看到有的团队采取美国优先、欧洲优先或亚洲优先的市场策略。
Power Ledger
Power Ledger的独特之处在于,它支持用户之间点对点交易能源,并将分布式能源资源(DERs)销售给能源公司。该平台包含两大核心功能:能源交易与溯源,以及环境商品交易。溯源平台让个人用户可以清晰了解所用能源来源,并支持电网过剩能源的P2P交易。商品交易平台则为交易者提供碳信用、可再生能源证书和其他能源衍生品的交易市场。尽管我们对碳信用市场的长期价值仍持保留态度,但如此大规模市场的P2P交易模式本身就颇具吸引力。不过考虑到能源市场的重要性,忽视监管因素显然是不现实的。
分布式能源领域面临着诸多挑战,可以说是DePIN中最复杂、最微妙的垂直领域。除了需要明确的监管框架外,现有基础设施也亟待全面升级。虽然这些问题看似构成了更高难度的挑战,但实际上也为那些能够推动未来发展的团队提供了重大机遇。
确实,目前已有多个团队在这一领域展开竞争,但就像电信行业一样,能源市场的庞大规模意味着容得下多个赢家。电网去中心化固然是首要任务,但如何平抑因增加DERs而带来的波动性同样至关重要。鉴于能源市场的复杂性和敏感性,我们预计最终的胜出者将是那些既拥有传统能源行业深厚背景,他们意识到加密货币是将抽象想法带入现实世界生产的最佳途径。
Compute, Storage & Bandwidth 计算、存储和带宽
存储、计算、带宽和检索的作用涵盖了为我们提供当今所知的互联网所需的大部分工作。我们已经讨论了数据的指数增长,但重要的是了解当今数据的管理、存储和交付方式,以及这种情况在不久的将来是否会发生变化。
如果存储网络需要更多需求,计算网络需要更多供应,而检索网络需要密度来竞争,那么我们如何将这些服务捆绑在一起并大规模创建分散的替代方案?
Compute
去中心化计算平台正变得越来越受欢迎,这要归功于人们对机器学习认知度的提升,以及对计算资源真正价值的日益重视。从宏观角度看,计算本质上就是机器将电能转化为运算能力。更准确地说,它包括处理能力、内存、网络、存储以及其他确保程序成功运行所需的资源。
随着大模型的兴起,关于计算资源的讨论发生了显著变化。众所周知,这些模型在训练和推理阶段都需要惊人的计算资源 — — 由于具备并行处理能力,GPU显得尤为珍贵。最先进的模型需要在高性能资源上对海量数据集进行数周甚至数月的训练。
举例来说,Meta训练Llama 3.1 405B模型花费了超过6亿美元。有估算表明,大模型的训练算力需求每3–4个月就会翻一番。英伟达显然是GPU热潮的最大受益者,因为其芯片是大规模训练的主导硬件。谷歌的TPU以及苹果神经网络引擎等定制芯片也在这个领域发挥作用。
无需赘述读者们都清楚的一点:需求的快速增长已经超过了供应,导致阻碍进一步扩展的瓶颈出现。主要限制因素包括:
- 芯片供应链中断
- 制造产能限制
- 云资源短缺
- 能源和冷却限制
- 成本制约
最近一项关于数据中心规模的分析显示:”领先的前沿AI模型训练集群今年已扩展到10万块GPU,预计2025年将建成30万+GPU的集群”,而且还有更大规模集群的建设计划。就成本而言,一个10万块GPU的集群至少需要5亿美元,这还不包括维护如此庞大系统所需的费用。
与此同时,训练成本持续攀升,有人推测简单地增加计算资源来训练模型可能是唯一合理的解决方案之一。
Dwarkesh Patel在2023年12月的文章中总结了这场算力竞赛:
“除了扩展模型参数本身所需的惊人算力增长(算力=参数*数据)外,让自我对弈机制运作还需要所有这些额外算力。根据对人类水平思维1e35 FLOP的估算,我们需要在当前最大模型基础上再增加9个数量级的算力。是的,更好的硬件和算法会带来改进,但真能达到整整9个数量级的提升吗?”
尽管存在诸多限制,但这恰恰意味着机遇。提高这些大模型的计算效率和可及性才是前进方向,我们已经看到了不同的解决方案。模型效率研究包括模型剪枝和知识蒸馏等技术,旨在减少推理所需的参数和操作。开发稀疏架构(每个输入只激活部分神经元)是另一个提升效率的途径。
在硬件方面,全球顶尖公司都在开发专门针对AI工作负载的专用硬件。我们近期重点关注的另一个领域是光子计算 — — 这种使用光子而非电子处理数据的方法,能显著降低能耗并加速数据传输,特别适合大规模AI训练。
最后且与本报告最相关的是分布式计算。除了利用闲置计算资源这一显而易见的好处外,如果无法用于模型训练,这些资源又有何用?我们所说的这个过程被称为去中心化(或分布式)训练,作为替代中心化AI实验室黑箱开发的方式,这个话题正变得越来越引人关注。
去中心化训练可以采用多种方法来更好地利用异构计算资源训练模型。虽然目前没有适用于所有分布式训练场景的通用方案,但很可能(甚至在不久的将来)就能找到解决方案。一些较流行的方法包括DiLoCo、DiPaCo、SWARM并行等。
这些分布式训练方法基于并行计算理念,主要分为三类:数据并行、张量并行和流水线并行。标准GPU集群是将大量GPU集中部署在单一位置,以提供最大计算能力。但如前所述,单个地点可部署的GPU数量受物理条件限制。
分布式训练通过将传统GPU集群的能力分散部署来解决这个问题。这是一个活跃的研究领域,与这些协议正在进行的工作直接相关。即使Akash或IONet目前尚未训练自己的大语言模型,分布式训练的突破也很可能赋予它们这种能力。
这里存在一个假设:如果通过代币合理激励个人为全球市场提供优质算力,需求端自然会出现 — — 但这仍取决于协议管理异构计算资源的能力,以及实际应用前述训练方法的水平。具体实施和内部执行能力才是关键所在。
与此同时,代币成本正如预期般急剧下降。假设这些成本持续趋近于零,就应该(也将会)探索更多分布式训练方案。如果创建新大语言模型的每个步骤都变得极其廉价,但完全依赖计算资源获取,那会怎样?
去中心化可以提供更好的资源分配、扩大奖励范围并防止中心化垄断。但如果实际性能不达标,这些都毫无意义。最直接的挑战在于延迟和通信开销 — — 比如在深度学习训练中跨节点同步计算会引入效率损耗。
还有完整性和安全问题 — — 可通过验证机制缓解。或许最重要的是稳定性和扩展性的不确定性:网络能否持续处理繁重工作负载并合理分配资源。
当前存在大量去中心化计算供应商、聚合器和交易平台。它们大多基于两个假设:a)区块链天然适合协调多方参与;b)代币激励能解决冷启动问题。这些平台的用户流程通常很简单 — — 参与者发布算力需求(X量算力/Y价格),供应商满足需求以换取支付和网络代币激励。只要交易平台能提供充足算力,由于GPU价格通常低于中心化云服务,需求端自然会跟进。
在详细分析这些协议时,我们的目标是研究它们之间的差异,并就特定设计决策分享观点。与其判断哪个协议会”胜出”,不如考察它们的发展路径和战略定位。值得注意的是,本报告后续设有”去中心化AI”专门章节,部分协议的分类存在自然重叠。
主要项目包括:
Akash
Akash 早在大多数阅读这份报告的人进入加密领域之前就已经存在。该团队撰文指出当今中心化云计算平台面临的一些问题,这些问题为去中心化替代方案的竞争提供了机会。具体来说,他们指出了以下问题:
- 过高的成本
- 数据锁定
- 许可服务
- 资源可用性
对于不熟悉的人来说,Akash 平台实际上是一个典型的计算市场。作为 Cosmos Hub 中的 L1,Akash 主要专注于提供高度去中心化的平台,抵御外部压力,同时提供与非加密世界中可用的体验相媲美的服务。
希望向 Akash 提供计算资源的个人可以使用 Web 应用程序或命令行,输入 CPU、内存和存储等信息。然后,供应商可以设定价格并从潜在买家那里接收出价。在需求方面,消费者可以使用从 Akash 购买的计算资源来构建应用程序,而无需自己扩展服务器部署。
Akash 上提供了一些原生应用程序,以及另外 40 多个外部应用程序、L1 和其他协议,这些都建立在该网络之上。截至目前,Akash 上部署了 419 个 GPU,其中 276 个可供使用,通过几十个 A100 和 H100 提供了不错的选择。
Akash 网络架构的关键组成部分包括区块链、应用程序、供应商和用户层。Akash 作为 L1 构建在 Cosmos SDK 和 Tendermint 之上,由 AKT 代币治理。他们的应用程序层管理部署、订单、出价和租赁(消费者和供应商之间的连接)。供应商层更为复杂,由数据中心、云供应商和运行 Akash 供应商软件的个人服务器运营商组成,以管理所有网络活动。Akash 使用 Kubernetes 和 Docker Swarm 来管理用户部署的组件,使他们能够扩展部署和用户的数量,而无需手动处理所有这些。用户层基本上描述了 Akash 与潜在计算消费者之间的任何交互,管理他们与应用程序界面之间的互动。
还有 Akash 节点,负责管理区块链同步、交易提交和网络状态查询 — — 这些内容有些复杂,但更多信息可以在此处找到。Akash 受益于其易于访问的开源代码库、与社区的持续沟通,或许最重要的是,在 AI 叙事的推动下,其代币升值。尽管如此,我认为如果给 Akash 的支持者吐真剂,他们会承认该平台使用起来很困难。轶事证据显示,精简的团队正在更快地推出产品。
2024 年第一季度的《Akash 加速主义》博客文章详细介绍了他们最引以为傲的成就和未来的抱负。这些包括开源整个 Akash 代码库、引入“类 DAO”实体,以及增加平台上 GPU 的访问。近期的一些努力包括通过 Akash 运行 vLLM 与中心化 AI 实验室竞争、与 Prime Intellect 合作部署 GPU,以及与 FLock.io 在 Akash 上探索去中心化模型训练。
在获取更多 GPU 的竞争中,Akash 仍需迎头赶上。400 多个 GPU 很好,但与 Lambda 等中心化计算供应商相比,后者拥有数千个 GPU 和相对实惠的价格。没有任何迹象表明 Akash 已经开始探索分布式训练,但如果他们的供应扩大,他们将是早期实验的候选者。
Livepeer
Livepeer 是一个视频基础设施网络。这篇优秀的入门文章描述了与互联网带宽相关的一些问题 — — 如今,80% 的带宽被视频流媒体消耗。流媒体视频在分发内容之前需要转码。转码是一个过程,将视频文件从一种格式转换为另一种格式,以便更好地适应不同规格的设备。
有多种不同的转码方法,这个过程超出了本报告的范围。它需要一系列复杂的步骤,包括文件解复用、视频编码、后处理、复用,以及利用专门的组件来格式化音频数据。这里不会深入讨论,但这是一篇很好的解释文章,供感兴趣的人参考。
视频转码成本高昂,“向 Amazon 这样的云服务每小时每个流媒体大约 3 美元,一个媒体服务器每月高达 4500 美元,内容分发网络每月高达 1500 美元(不包括带宽)”,这意味着对于大多数团队来说,在没有大量资本支出的情况下,内部完成这个过程是不可行的。
Livepeer 希望为开发者提供基础设施,以 50 倍以上的低成本创建直播或点播视频。他们通过使用编排者和委托者 — — Livepeer 网络中的两个关键参与者 — — 来实现这一点。
协调者选择加入系统并运行软件,开放其CPU、GPU或带宽的访问权限,用于对用户提交的视频进行转码处理。为了完成这项工作,协调者必须持有LPT代币 — — 持有的代币越多,就有资格完成更多工作,从而获得更多的LPT奖励。委托者的任务是将自己的LPT代币质押给在平台上完成”优质工作”的协调者,从而获得工作费用和未来LPT代币发行的一部分分成。这种”质押获取访问权”的模式让Livepeer能够在平台需求增长的同时扩展其经济规模。
Livepeer的商业模式独特地融合了其代币,而且他们竞争的领域既热门又在不断增长。短视频内容几乎被用于所有商业领域 — — 营销、喜剧、新闻分发等等。TikTok、Instagram和Twitter等平台上的创作者越来越依赖短视频内容来提高参与度。此外,全球无线数据传输量正以每年超过25%的速度增长,这主要是由移动视频流量推动的。假设这一趋势持续下去,如果Livepeer能够保持相对较低的转码成本,他们应该能够获得相当一部分需求。
这个网络非常容易理解,也很容易上手 — — 这在加密领域实属罕见。协调者运行一个节点并声明他们对转码服务的收费价格。然后,Livepeer节点将这些任务路由到你的GPU,并在协调者无需手动干预的情况下开始工作。消费者以低得多的成本获得所需服务,协调者利用原本闲置的GPU赚取收益,而委托者在活动频繁且质押得当的情况下也能获得费用分成。这实际上是一个非常优雅的设计。
到目前为止,Livepeer已经转码了近4.27亿分钟的视频,并获得了超过80万美元的费用。值得注意的是,Livepeer仍然由其创始人领导。视频无处不在,尤其是短视频,全球内容创作者的增加可能会导致视频平台最终向用户收取发布内容的权利费用,不过我们并不认为所有消费者会立即转向去中心化解决方案。在一个中心化日益受到关注的市场中,Livepeer的解决方案看起来很有前景,使其成为最独特的DePIN项目之一。
IoNet
接下来是IONet,这是另一个试图与Akash等竞争对手抗衡的算力交易平台。IONet的宣传信息略显混乱,但其核心定位是一个去中心化枢纽,让算力买卖双方能以更高效率完成交易。他们还提及了一些次要功能,如承诺建设绿色数据中心、通过SOC2提升安全合规性、简化集群部署流程,以及基于Solana的即时支付。但如果不能提供便捷廉价的算力接入,这些功能都无关紧要。
IONet认为其优势在于GPU部署速度和相比传统供应商90%的成本削减能力。以Akash为参照,H100使用价格为$1.45/小时,而IONet仅需$1.19/小时 — — 这在去中心化算力竞争中确实占优,但让我们再看看Lambda的报价。
Lambda官网显示H100价格为$2.49/小时,使得Akash和IONet的价格便宜50%。IONet宣称的90%成本削减可能适用于大批量或长期租赁场景。不过我们也不能忽视IONet曾陷入虚报GPU数量的争议。
虽然这个话题可能更适合其他场合讨论,但实际使用这些算力平台的用户都清楚各家的真实供给能力 — — 只需向这些协议发起服务请求就能轻松验证。现在压力来到IONet这边,他们需要证明自己正在构建真实可用的平台,并能在扩大GPU供应时实现高效的集群协调。
Hyperbolic
Hyperbolic是一个开放访问的AI云平台,支持算力提供、推理运行和低价GPU接入。该团队认为AI应该是开放共享的资源,但对当前开源AI现状提出质疑:虽然部分代码已开源,但支撑AI的核心要素 — — 算力 — — 仍被中心化数据中心垄断。据他们统计,全球有超过20亿台计算机每天闲置超过19小时 — — 如果能将这些闲置算力重新利用会怎样?
Hyperbolic声称能实现这个愿景。
该平台运作模式与前述项目类似:个人用户闲置算力接入平台,需求方按指定小时费率购买,各取所需。供给方获得租金和积分奖励(假设这些积分未来会转化为代币)。以下是Hyperbolic的部分服务价格(不含10%平台手续费):
在推理服务方面,Hyperbolic提供文本到文本、文本到语音、文本到图像、文本到视频模型及微调服务。简要说明:AI推理是指利用训练好的模型,根据反馈和特定输入生成更准确输出的过程。虽然推理所需算力较少但仍具资源需求,Hyperbolic为免费用户提供60次/分钟的基础速率,账户余额超过10美元的用户可提升至600次/分钟。企业级服务每小时收费0.30至3.20美元不等(具体取决于模型类型) — — 不过平台当前未公开可用模型的总数量…
Hyperbolic的营销同时面向加密圈和非加密圈的机器学习爱好者,最引人注目的是Andrej Karpathy最近的推文。Karpathy将Hyperbolic称为与Llama 405B等基础大模型交互的优质替代方案。得益于高效运行Llama 405B的能力,该平台还被多项关于”多人-多AI”交互的新研究列为关键技术栈。目前支持Hermes和Llama的多个变体模型、Stable Diffusion图像生成模型以及Melo TTS语音生成模型。
关于验证机制的说明
前文提到验证机制对安全信任至关重要 — — 但当前多数算力协议尚未采用乐观验证、零知识证明或其他验证方案(如TEEs、MPC等)。随着供需规模扩大,对验证机制的需求将会凸显。
算力验证主要分为三类:
- 无验证机制
- 乐观验证机制
- 基于零知识证明的验证机制
截至目前,验证机制的有无并未影响这些项目的初期成功。团队们聚合算力资源时都假设需求方最关注低价GPU接入 — — 我们认为这个假设基本合理。但未来对算力的验证过程和密码学保证将愈发重要。这些保证仍是该领域最被低估的优势之一。低价GPU只是第一步,配备内置不可篡改信任机制的低价GPU才是自然演进方向。
展望未来,解决算力约束需要硬件进步、软件优化和分布式网络模型的组合。短期内将继续发展AI专用硬件,而光子/量子计算将在长期发挥作用。软件优化应能提升能效比。但加密技术的核心竞争力和价值增量在于分布式计算网络 — — 随着这些网络发展,它们可能成为大规模AI训练的关键推动力(后续将详细探讨),特别是对无法使用中心化云服务的群体而言。
Decentralized Storage
去中心化存储是DePIN的基础支柱之一,这主要得益于Filecoin自2017年推出以来在其产品套件上所做的努力。
如果不提及Filecoin,任何关于存储的讨论都是不完整的。尽管过去一两年出现了新的发展,但长期以来Filecoin就是去中心化存储的代名词。要理解什么是去中心化存储,最简单的方法就是概述Filecoin — — 这个旨在存储人类最重要信息的去中心化存储网络。
Filecoin作为一个点对点网络运行,让个人能够在互联网上存储和检索数据。传统需要大量数据存储的服务要么使用中心化系统,要么自行构建。Filecoin的目标是改变这一现状,尽可能简单地为全球用户提供定制或全面的数据服务。
Filecoin网络的核心是存储提供商和愿意为数据服务付费的客户群。存储提供商本质上是网络中的计算机(以节点形式存在),它们存储用户文件并提供存储验证。客户根据存储可用性和自身需求,按市场公允价格支付费用。
存储市场是存储提供商和客户协商并将交易上链的地方,交易生命周期分为四个部分:发现、协商、发布和移交。客户先找到提供商,协商条款,将交易发布到链上,最后将数据发送到”可验证存储”的基本单位 — — 扇区,存储提供商在此验证数据并完成交易。
接下来最重要的部分是用户数据的实际检索,因为如果无法轻松访问,去中心化存储就失去了意义。目前,Filecoin节点支持直接从矿工处检索数据,用户可以在发送附带指令的数据请求后支付FIL代币。
检索请求必须包含存储提供商ID、数据内容标识符(CID)和发起数据交易的地址。CID用于在Filecoin网络中识别提交的文件 — — 这与链上”指向”数据以辅助验证的概念相关。当系统中有大量数据时,必须要有相应的分类处理。这就是内容分发网络(CDN)的作用,Filecoin使用其去中心化CDN — — Saturn来管理这一切。Saturn是一个双向市场,节点运营商通过完成任务获得FIL,客户则管理和检索他们购买的数据。
Filecoin团队深知理解他们正在构建的全貌有多困难 — — 《Filecoin简介》就是许多加密项目都需要的优秀资源范例。
让我们解析这些数字:总存储容量指的是Filecoin网络的5艾字节(EiB)数据容量,约等于1,152,921,504,606,846,976字节。2EiB的总活跃交易量是指Filecoin网络当前正在使用的存储容量。这是海量数据 — — 换算一下,2EiB大约相当于6.82亿小时的高清视频内容,或者Facebook全球512天的数据量。
Filecoin基金会在今年5月发布了一份出色的网络现状总结。截至当时,Filecoin上有超过3,000个存储提供商系统和2,000多个提交数据集的客户,交易发起数据量同比增长200%。
Filecoin最重要的指标可以说是活跃交易量和当前有效算力,数据显示有2,925份活跃合约(涉及280万笔交易)和22.62EiB的算力容量。如果需求端远未达到上限,那么实际最大数据容量的讨论就无关紧要。
Messari7月31日的《Filecoin现状》报告提供了最新展望和一些额外指标,最引人注目的是其2.73亿美元的FVM总锁仓价值和3%的季度存储利用率增长。报告很好地突出了Filecoin当前的目标和未来方向,包括通过资助计划重新聚焦企业客户,以及更加关注生态中”AI导向”的项目 — — 显然每个人都想从AI叙事中分一杯羹。
但Filecoin的抱负不仅限于存储,该协议还推出了Filecoin虚拟机(FVM)。鉴于我们专注于存储领域,这里不会过多讨论,但FVM与许多竞争对手类似 — — 它是构建在Filecoin网络上的标准智能合约运行环境。其文档将Filecoin存储和检索网络描述为系统基础层,而FVM则是实现可编程性的层级 — — 类似于EVM位于以太坊架构之上并管理我们与之交互的链上软件。
FVM最突出的特性之一是其利用存储和检索的能力,支持CoD(内容可寻址数据)原语,并在未来路线图中规划了L2功能。这个基于WASM的虚拟机让开发者能够访问IPFS和IPLD(星际链接数据)数据原语,并能用任何可编译为WASM的语言编写智能合约。IPLD作为Filecoin组织数据为Merkle-DAG(默克尔有向无环图)结构的首选方法,使得网络数据能够以”全局化”方式在不同数据结构间建立关联和引用,大幅提升数据可访问性。
数据复制和代币租赁属于更专业的技术领域,目前网络中对这些功能的应用信息仍有限。复制功能通过让客户数据自动存储于多个供应商来增强数据韧性,从而推进去中心化。FVM以编程方式执行这一过程,并支持供应商地理区域、延迟和成本等细粒度设置。租赁功能则允许FVM参与者通过质押FIL获取新客户,闲置代币可产生收益,网络还引入链上信誉系统来规避违约风险。
FVM的发展路线仍在完善中,拟议的改进包括:将其扩展为通用运行时环境(类似EVM的跨链功能)、将WASM执行器部署至主网,以及存储市场功能的多项优化。
就去中心化存储领域而言,Filecoin目前占据主导地位 — — 这很大程度上是因为该领域尚未出现能撼动中心化云服务商的产品。虽然Filecoin在理论层面运行良好,团队也在持续迭代,但任何去中心化存储产品最终都要直面AWS和Azure等巨头的竞争。
Lightshift在2023年的研究报告中精辟阐述了数据上链的价值:截至2021年,四大厂商垄断70%市场份额,其中仅AWS和微软Azure就占据54%。除中心化问题外,监管风险、数据验证标准缺失以及信任机制不足,都是中心化云存储市场亟待解决的痛点。
“区块链的意义远不止于金融应用,它更肩负着捍卫数据主权、数字身份及各类所有权的重要使命。”
这是我们坚信的长期趋势。自我主权这一趋势恰如其分地始于金融危机后的金融主权。我们仍然相信,这一原则将渗透到金融以外的领域,并渗透到我们与之互动的其他机构中:数据、医疗保健、教育和气候只是其中的几个例子。
Jackal
Jackal是一条致力于在多链世界中提供安全存储解决方案的Layer1区块链。该协议构建了一个去信任化的云存储体系,旨在提升其他区块链的数据存储与处理效率。通过智能合约和IBC跨链通信协议,Jackal让各类公链都能更便捷地管理数据密集型应用,弹性扩展存储需求。
Jackal网络宣称具备6秒出块速度和单笔0.0004美元的交易成本,在数据存储端已实现221,000+文件500Mbps以上的下载速率。其技术架构与Filecoin高度相似:存储供应商创建文件存储合约,验证者参与”持久性证明”(PoP)共识,采用AES-256加密标准,并由智能合约模块管理核心协议功能。JKL代币与其他Layer1代币类似,用于链上验证和交易结算。整套系统通过精密的协议架构图呈现,其复杂程度甚至让MakerDAO相形见绌…
Jackal的PoP机制旨在确保存储提供商维护网络上数据的可用性和完整性。与PoS网络中验证者更关注就下一个区块达成共识不同,PoP验证者最关心的是确保这种数据完整性。为实现这一点,存储提供商必须通过随机挑战机制定期证明他们确实持有承诺存储的数据。坦率地说,数据证明和检索能力一直是某些去中心化提供商的争议点。
Jackal的主要价值主张在于其能够持久存储数据、加密数据并长期维护其状态。在中心化方面,现有存储提供商容易出现中断和数据泄露,而Jackal理论上通过分布式存储提供商网络和加密方法能够抵抗这些问题。Jackal的用户可以将提交的数据组织成文件树系统,通过加密密钥实现用户之间的私有数据共享。
当文件被上传时,会形成相应的智能合约,代表用户和存储提供商之间的关系,概述他们的存储安排和定价细节。存储提供商通过赚取JKL代币来激励其维护数据,而用户则因参与生态系统而获得JKL代币奖励。
“目前,这是唯一具备以下特性的存储网络:自主托管、链上权限、可编程隐私、点对点文件传输、跨链功能、热存储速度、模块化应用专用区块链、权益证明区块链、协议管理的冗余、协议管理的存储交易等等。”
就目前来看,Jackal平台仍处于早期阶段。很难找到更详细的数据,因此我们只能依赖其公布的指标。虽然500+Mbps的速度已经不错,但与AWS和Azure具有多Gbps下载速度相比,Jackal在性能上仍有明显差距需要追赶。
Arweave and AO
接下来要介绍的是Arweave,它可以说是与Filecoin齐名的项目,最近因其AO Computer产品的推广而备受关注,代币价格上涨也为该网络吸引了更多目光。Arweave是一个为永久信息存储而设计的协议,本质上是一个建立在永久数字账本上的去中心化信息网络。用户可以在该平台上上传数据、构建去中心化应用(dApps)、将其作为数据库使用,还能部署智能合约,这使得它更像是一个以数据为核心的Layer1区块链 — — 在功能定位上与Filecoin相似,但在架构设计上更接近Jackal。
遗憾的是,关于Arweave的信息组织方式有些令人困惑,但核心信息可以从这里开始了解。矿工通过存储和复制AR代币来维护网络,每个区块都会通过”简洁随机访问证明”(SPoRAs)测试尽可能多地复制数据集。
为了防止存储冗余,Arweave的矿工必须证明他们能够访问截至上一个区块时的网络数据,从而确保计算过程不会无限失控。支撑这一切的核心产品是Arweave所称的”permaweb” — — 这是永久存储在Arweave网络中的互联网子集。
与Filecoin专注于根据客户需求提供灵活存储不同,Arweave正在构建一个能够抵抗任何形式中心化或外部干预的永久互联网。这完全是一种不同类型的产品,与其说是一项商业服务,不如说是一个被放大到极致的科学实验。
Arweave通过收取一次性网络访问费用来创收,协议积累的AR代币和额外费用会注入Arweave捐赠系统。随着更多用户向网络提供数据,该系统规模会逐步扩大,同时Arweave假设存储成本将线性下降,从而确保未来有足够资金长期备份数据。
最近,Arweave团队在一篇长文中阐述了他们对AO协议的愿景 — — 这是一个”去中心化、开放访问的超级计算机”。AO Computer作为一个虚拟机,完全整合了计算和存储功能,允许开发者在统一环境中构建和运行去中心化应用。简而言之,它旨在让开发者能够运行调用Arweave存储(通过永久网络实现数据永久存储)的去中心化应用,同时在此基础上增加计算功能。
如果您想了解更多关于AO系统及其协议细节的信息,请继续阅读以下内容。
AO简介
AO采用模块化架构,允许用户自行选择虚拟机、序列化模型、支付选项和安全保证,而不是将它们绑定到单一解决方案中。AO希望以一种尚未被充分探索的方式实现这些无需信任且协作的计算机服务。当你想到针对现代网络用户体验问题的定制化解决方案时,唯一能想到的名字是Urbit,但AO的方法与Urbit截然不同,并且更大程度地利用了加密技术。
AO系统的最基本单元包括其进程、消息、计算单元、调度单元和信使单元 — — 这些单元组合在一起,构成了Arweave和AO协议之间的连接路径。进程负责处理用户之间的消息,并处理共识层。用户在AO协议上进行的任何操作都通过消息来表示,消息被定义为符合ANS-104数据标准的项目,这是一种在系统中传递二进制数据的标准。调度单元必须将这些消息分配到槽位中,以确保数据能够永久发布到网络上,这有点类似于PoS以太坊的区块在确认之前由特定验证者排序的方式。
AO的计算单元由信使单元和用户使用,用于计算进程的状态,这基本上意味着它们处理更多管理类任务,比如为槽位排序发布证明。最后是信使单元,它们将网络中弹出的消息传递给调度单元。所有这些协同工作,以调节Arweave和AO之间信息和数据的传递,用白皮书自己的话来说:“没有直接的类比可以描述AO是什么以及使用它的体验。”
应用程序运行在去中心化的虚拟机上,它们使用的所有数据都存储在Arweave的区块链上,确保了不可变性。AO可能会采用使用费模式,开发者需要支付费用以运行计算任务和存储数据。AO代币可以通过交换AR代币来铸造,截至本文撰写时,已有超过160万枚被铸造。关于AO可能成为什么或者它目前是什么,外界有大量信息,但这就是你能得到的最好的总结。类似于Bittensor网站过去很难获取具体信息一样,AO白皮书几乎过于复杂或过于笼统 — — 如果互联网本身运行良好,那么迁移到永久网络的激励因素是什么?
AO是Arweave的一个有趣扩展,重新引起了人们对这一生态系统的关注。该团队的推特账号活跃,发布简短的产品更新、生态系统开发以及为AO dApps建立的孵化计划。与大多数类似的新平台一样,问题最终将归结为差异化和流动性。在这种情况下,虽然有一些品牌积累,但我们尚未看到在此构建的令人信服的优势。这并不意味着我们不会看到,但证明的责任落在了AO和Arweave团队的肩上。在理想情况下,AO可以作为Arweave及其永久数据收集方案的一种数据或信息漏斗。然而,再次强调,如果没有可靠的数据存储性能,其他一切都无关紧要。
这里存在一种风险,即去中心化存储最终可能成为一种商品化产品。一方面,一个更可靠且更具弹性的存储网络,且不存在单点故障,确实具有吸引力,但这并不一定意味着我们会从中直接获得价值。尤其是考虑到开源软件的性质。鉴于我们社会对数据消费的无尽渴望,这仍然是一个令人兴奋的领域,但价值积累动态和护城河构建仍然不明朗。
Bandwidth, Retrieval & Content Delivery Networks (CDNs) 带宽、检索和内容分发网络 (CDN)
顺便说一下,我们已经在这里写了一些相关内容。如果你懒得点击链接查看完整描述,以下是简要总结:
在某些方面,CDN(内容分发网络)是互联网的骨干。它们是连接用户与数字内容的桥梁 — — 一组地理分布的服务器,确保用户在请求时能够获得他们喜爱的内容。你在互联网上做的几乎所有事情都涉及CDN:无论是打开电子邮件、浏览网页还是发送消息,都依赖于价值数十亿美元的CDN基础设施。在传统领域,Cloudflare和Akamai占据主导地位。
Messari实际上指出,Cloudflare拥有一个类似DePIN(去中心化物理基础设施网络)的飞轮效应 — — 他们的CDN服务是免费的,这使他们能够看到更多的流量,进而通过研发和用户体验相关的网络效应螺旋上升,最终带来更好的数据和更高的收入,因为他们改进了技术。显然,Cloudflare缺乏为其用户提供代币激励,但该服务本身的价值足以使免费的入门门槛成为几乎所有需要CDN的人的值得选择 — — 而这是一个相当大的潜在客户群体。
那么,为什么还要费力去构建一个去中心化的版本呢?
这里的挑战和限制是一些我们常见的、使分布式版本具有吸引力的因素。传统CDN依赖于集中化的网络基础设施,这带来了单点故障、漏洞以及对攻击和瓶颈的抵御能力较弱等问题。由于满足增加的需求成本高昂且复杂,同时维护服务器基础设施和扩展网络也价格不菲,因此其可扩展性有限。此外,当涉及到覆盖偏远地区时,还存在延迟问题,因为在全球每个位置都部署服务器在经济上是不可行的。
去中心化的CDN是一个由节点组成的网络,这些节点共同管理传统CDN的任务,利用点对点(P2P)模型来减轻维护负担并提供更好的用户体验。通过将内容分布在独立运营的节点网络中,这些网络可以消除单点故障,同时实现动态可扩展性。随着更多用户加入网络,CDN的容量和性能也会随之扩展,从而大幅减少昂贵的基础设施建设需求。
目前有一些公司在开发分布式CDN,尽管它们无法与Cloudflare等现有巨头的输出相匹敌,但存在一些有利因素,使它们有可能在未来取得成功,尽管其最初的吸引力有限。
Fleek
Fleek 是一个开源的边缘计算平台,旨在提升去中心化网络服务的运行效率,包括内容分发网络(CDN)。Fleek 网络由分布式节点组成,这些节点管理着在网络中提供和消费的服务,涵盖数据库管理、CDN、域名服务等诸多领域。Fleek 还有一个专门针对其 CDN 相关服务的独立网站,提供诸如 IPFS 托管、网关、域名和去中心化存储等产品。
尽管加密技术行业常常标榜去中心化,但推动我们行业的许多服务并没有你想象的那么去中心化。Fleek 看到了这一问题,并希望创建一个平台,以安全透明的方式为每个人提供有价值的去中心化服务。他们通过使用权益证明共识机制、零知识证明(SNARKS)以及 Narwhal + Bullshark 共识机制来实现这一目标。
关于 Narwhal + Bullshark 的简要说明如下。
Mysten Labs 以开发 Sui 而闻名,是 Narwhal 和 Bullshark 的创造者 — — 它们分别被用作有向无环图(DAG)内存池和共识引擎。
Narwhal 通过确保所有节点都能正确访问所需数据,来满足 Fleek 的数据可用性需求 — — 这些数据被推送到 Narwhal 的有向无环图(DAG)中。DAG 并非加密领域独有,它是一种用于表示实体之间“不循环回自身”关系的数据结构,能够在节点之间维持单向信息流,而不会因重复遍历节点而影响性能。Fleek 选择使用 Narwhal 是出于对高效任务排序系统的需求,而 DAG 在这方面表现出色。
Bullshark 用于优化网络交易的排序流程和最终性 — — 它与权益证明(PoS)机制结合使用,以提供更快的最终性和更高的性能。节点运营者仍在质押 FLK 代币,但 Bullshark 的加入使得在潜在的网络扩展过程中,节点之间的消息传递能够更加高效地进行。
Fleek 管理着几个不同的组件以运行网络,维护代币余额、质押细节、数据更新以及节点声誉的状态。这在大多数去中心化物理基础设施网络(DePIN)项目中是相当直接的,因为状态需要在所有节点之间均匀分布或复制。Fleek 内的四个主要参与者分别是客户端、开发者、终端用户和节点运营者。
为了在 Fleek 上获得报酬,节点运营者需要质押原生的 FLK 代币以执行工作并有资格获得奖励。这种收入可以通过提供共享缓存数据或提供缓存带宽请求来实现,奖励会根据提供的带宽量而增加。在这些数据被交付之后,零知识证明(SNARKs)被用来确认客户端是否成功地履行了请求 — — 这些被称为交付确认(DAs)。这些 DAs 最终会被收集起来,并以批次的形式提交,最终通过协议路由并发送到共识层。
与其他网络一样,Fleek 希望确保其运营者提供最优质的数据,并且不会操纵系统。他们的解决方案是一个声誉系统,节点会对它们的同行进行评分,并在每个纪元结束时形成综合分数。这些信息会被发送给其他参与者,并用于优化 Fleek 的不同部分 — — 网络流量、任务分配以及节点的邻近性。
由于 Fleek 仍处于测试网阶段,因此无法完全与其他项目进行性能对比,但初步数据令人关注。根据 2024 年 2 月的测试网总结信息,在两周内,Fleek 网络上的调用次数超过 9342 次,平均首字节传输时间(TTFB)为 37.02 毫秒。这一指标衡量了 Fleek 从数据请求到首次数据传输的能力,其速度比 AWS Lambda 快 7 倍,比 Vercel 快 2.7 倍。之所以选择这些基准,是因为 AWS Lambda 和 Vercel 是类似流程中表现优异的行业标准 — — 在云计算领域部署无服务器函数。不过,其在生产环境中的实际表现仍有待观察。
Fleek 最近的发展表明,其主网将在 2025 年上线。该团队还推出了 Fleek 的首个产品 — — Fleek Functions。这些是专门的代码片段,能够在网络上提供高性能且更具经济性的服务器端代码操作。该团队还在进行一些技术改进,例如提高节点请求处理能力和改善节点同步。值得一提的是,Fleek 正在推动创意生成,创建了一个专属的 Fleek 产品构建创意库以及深入的开发教程。
Fleek 将与 AWS 和 Vercel 等强大的竞争对手展开较量。作为背景,AWS 每年创造数百亿美元的收入,被广泛视为权威的云计算提供商。Vercel 规模较小,但在短时间内实现了超过 1 亿美元的年收入。从某种意义上说,这对在加密领域从事相关建设的人来说是令人鼓舞的,因为我们知道加密货币收入的增长速度有多快。随着 Fleek 即将上线主网,其在技术层面和产品层面的发展都值得关注。从理论上讲,人们应该能够构建从链上“Dropbox”到可信预言机网络等各种工具,以供其他加密网络使用。
Meson
Meson 正在打造一个去中心化的市场,旨在整合并货币化闲置带宽。带宽仅仅是数据在给定时间内通过网络传输或发送的速率,通常以每秒比特数(bps)来衡量。鉴于流媒体的指数级增长以及人们花费在消费这些内容上的时间不断增加,Meson 构想了一个世界,每个人都可以按需获取所需的带宽。传统的 CDN(内容分发网络)在推动这一信息传输过程中,正越来越多地面临扩展和成本问题。Meson 认为,这里更大的问题是终端用户缺乏选择权,尽管我们对这一点是否能产生实质性影响持怀疑态度。不过,他们相信大量的闲置带宽可以作为一种替代中心化垄断的方案。
Meson 提供了一个供人们交易带宽的市场,其两大核心产品 GaGaNode 和 IPCola 支撑着这一市场。
GaGaNode 是一个去中心化的边缘/云计算平台,为 Meson 的带宽收集业务提供支持。用户可以在他们希望出售带宽的任何设备上下载 GaGaNode 扩展程序 — — GaGaNode 随后将这些带宽汇总到 Meson 的 DePIN(去中心化物理基础设施网络)中。Meson 上的矿工能够直接将带宽发送到 GaGaNode,数据在交付前会进行优化和路由。
IPCola 负责管理用于处理大量数据和数据提取目的的代理的“道德采购”。其文档较为复杂,但 IPCola 实质上是一项全球服务,提供定制的 API,以便访问超过 7000 万个活跃 IP,从而更轻松地进行数据提取。这一点有些模糊,但与 CDN 和 Meson 相关的是,IPCola 的任务是为 Meson 内的运营商提供“家庭宽带”。
Meson 一直在低调地构建其产品生态系统,并且在 Twitter 上保持活跃。目前仍不清楚在实践中哪家去中心化 CDN 提供商的产品更具吸引力,以及他们最终将服务于哪些类型的需求,但这项技术相当有趣。内容分发在成本方面正面临一些危机,因此加密技术在这里确实有机会发挥重要作用。还有一些其他项目,如 Blockcast、Filecoin Saturn 和 AIOZ,也值得探索。
将这些内容整合起来,我们有三个计算/存储/带宽堆栈的不同部分(由 Messari 提供):
- 在链上的永久、加密或可验证存储;
- 去中心化计算供应和点对点市场,无需额外开销或合同锁定;
- 一个密集的全球节点网络,以实现更大规模的快速且廉价的数据包路由。
尽管这些组件目前仍然分散且稍显孤立,但没有理由不相信在未来 3–5 年内,加密技术不会在虚拟机和 Layer 1 环境之间实现共享标准。在过去十二个月中,我们已经见证了模块化理论的诞生及其随后的发展,对跨链标准需求的认识不断增加,桥接技术的演变,以及新的 Layer 1 和 Layer 2 的持续部署。
Cyber Fund 发布了一份去中心化人工智能的总结,指出“开发者在使用去中心化计算解决方案时不应感受到用户体验的差异” — — 这是一个很好的框架,可以扩展到整个计算、存储和检索堆栈。去中心化堆栈的理想最终状态是一个更具性能、资本效率更高的系统,能够吸引那些甚至可能不了解加密技术如何运作的客户。
他们不需要了解细节,他们只是想要一个更好的产品:DePIN 可以提供这一点。
加密技术天生就有共享和分布的欲望,不受任意边界的限制,而 DePIN 协议需要顺应这一叙事。与其针对堆栈的单一部分,不如在这些协议之间进行协调合作,共同构建与中心化对手竞争所需的通用标准。这不会在一夜之间发生,这肯定也不是 DePIN 独有的问题,但这个观点之所以流行,是有其原因的。
Artificial Intelligence and Decentralized AI 人工智能和去中心化人工智能
我们之前提到,计算讨论和去中心化人工智能部分会有一些重叠。实际上,我们本可以将它们合并,但没有这么做,所以就这样吧。看着不同的加密参与者对加密与人工智能的结合点以及它是否应该被视为DePIN(去中心化物理基础设施网络)采取的立场,也是一件很有趣的事情。更广泛的DePIN阵营似乎决心将人工智能视为一个子板块,因此这可以作为衡量去中心化人工智能(DeAI)空间的一个指标。
目前,这些是在DeAI领域构建的人工智能协议,要么已经拥有实际产品,要么未来有通往有趣事物的路径:
- Prime Intellect:通过组织计算和GPU训练集群来实现人工智能开发的民主化。
- Bittensor:一个开源的去中心化协议,创建了一个将机器学习(ML)转化为可交易产品的点对点市场。
- Gensyn:为全球深度学习模型提供超大规模、成本效益高的计算协议。
- Prodia:大规模去中心化图像生成
- Ritual:构建一种方式,使任何协议、应用程序或智能合约都能用最少的代码集成人工智能模型。
- Grass:为加密货币构建数据层,奖励用户的数据,这些数据随后用于训练人工智能。
“加密技术希望信息上链,以便为其估值并为系统增加价值。人工智能希望信息上链,以便系统能够自由访问和利用这些信息。” — — Jacob, Zora
在加密领域,有时很难找到具有产品市场契合度的协议。基础设施获得的资金超过了新颖的应用程序,用户的注意力是短暂的,叙事不断变化。一个能够坚持下来的叙事是,人工智能极度中心化,而加密技术可以解决这个问题。关于封闭源代码与开源人工智能的讨论,超出了加密技术的范畴 — — 像Open AI和Anthropic这样的大型人工智能/机器学习实验室,将他们的模型权重和训练数据扣为人质,只向公众发布前沿模型的修改版本,形式为聊天机器人。一些人认为,构建封闭源代码或开源人工智能之间的差异是一种国家防御威胁。另一些人只是希望有自由使用性能最高、最新版本的大型语言模型 — — 加密技术可以帮助解决这个问题。
去中心化人工智能有几个值得讨论的组成部分:验证、计算聚合平台、去中心化训练和以软件为重点的基础设施。一些与DeAI相关的值得探讨的主要问题领域包括乐观验证与零知识验证的问题、链上零知识证明以及在异构来源上高效使用计算能力。不过,最终这些宏伟目标必须在链上经济上和技术上都可行。
Prime Intellect
Prime Intellect 是最明确地推出实际产品的团队,其前沿技术令人兴奋,因此,它不仅在加密货币圈内受到认可,在圈外也获得了关注。上个月,他们公开推出了 Prime Intellect 计算平台。该平台聚合了来自中心化和去中心化提供商的云资源,提供对高需求 GPU(如 H100、A100 等)的即时且成本效益高的访问。这一直是加密货币中分布式计算平台的一个问题;通常,他们能够访问的 GPU 并非高需求的高性能型号。不仅如此,该团队还计划最早于本月推出按需多节点集群。
虽然聚合计算只是 Prime Intellect 的第一步,他们最近还发布了 OpenDiLoCo,这是 DeepMind 的分布式低通信(DiLoCo)方法的开源实现和扩展,能够实现全球分布式人工智能模型训练。他们在三个不同的国家训练了一个模型,计算利用率达到 90–95%,并将其扩展到原始工作的 3 倍大小,证明了其对数十亿参数模型的有效性。他们在最大的人工智能会议之一上展示了他们的工作,并得到了原始 DeepMind DiLoCo 作者的高度赞扬。
Prime Intellect 的价值主张比我们在加密货币与人工智能交叉领域看到的许多东西更清晰、更直接。他们实际上已经着手通过分布式训练来简化大规模训练最先进模型的过程,从而实现人工智能开发的民主化。这个平台如果成功,将解决大规模人工智能开发的关键瓶颈,其中最复杂的是跨集群训练大型模型的复杂性。那些贡献计算资源的人可以获得这些模型的所有权股份 — — 从推进语言模型到加速科学突破。虽然我们可能有些偏见,但显然,在这个领域没有其他团队像 Prime Intellect 一样。值得关注的是,Prime Intellect 将如何应对 Nous Research 在分布式训练方面的一些最新进展,或者更广泛地说,Exo Labs 提供的消费级硬件产品的改进能力。
Bittensor
Bittensor 是加密货币社区中最知名的去中心化人工智能(DeAI)协议之一,这主要得益于它的先发优势和其代币作为人工智能的某种迷因。Bittensor 是一个由许多活动部件(或子网)组成的系统,旨在将人工智能的几乎每一个方面的内容整理、训练和传输都上链。Bittensor 协议本质上致力于通过强调社区合作和将工作分配给其子网,使人工智能成为一个更加去中心化的生态系统。Bittensor 上有 30 多个子网,尽管该团队最近将限制扩大到了 45 个。
这些子网是分隔的,每个子网处理更广泛的人工智能堆栈的一个方面;有专门用于图像生成、聊天机器人、训练、价格数据等的子网。Bittensor 的技术栈有些复杂,但他们的方法让我们想起了 Cosmos 和其在 Cosmos Hub 内的许多轨道应用特定链。在这个类比中,Bittensor 就像 Cosmos,而其子网就像应用链;所有这些都通过 TAO,Bittensor 的原生实用代币,该代币通过贡献网络获得。
Bittensor 网络由矿工和验证者组成。矿工是运行发布到 Bittensor 网络的人工智能模型的人,他们竞争看谁能产生最好的输出,以获得 TAO 代币作为回报。验证者负责审查矿工的模型输出,验证他们的结果,并随着时间的推移对这些排名达成共识。TAO 的代币经济学在结构上类似于比特币,网络内只计划开采 2100 万个代币。
Galaxy 关于 DeAI 的报告指出:“Miners 可以随心所欲地生成这些输出。例如,在未来的场景中,Bittensor Miners 完全有可能在 Gensyn 上训练模型,并利用这些模型赚取 TAO 排放。”
Bittensor 的悖论在于,尽管其目标极其雄心勃勃,但人们对该模型的怀疑却越来越多。他们引用了一种专家混合(MoE)机器学习方法,将模型的工作分成不同的部分,而不是将其作为一个整体使用。MoE 仍然是相对较新的技术,而 Bittensor 的子网模型要求每个任务与核心功能分离,与其他更紧密的大型语言模型(LLM)相比,后者通常与聊天机器人等功能相关联。
目前,Bittensor 的模型并不是实际的、真正的 MoE — — 这只是一个花哨的说法,意味着他们的子网是独特的,并管理 Bittensor 生态系统的不同部分。Bittensor 声称已经利用 MoE 来“复合”其各种模型的性能,但这与机器学习的实际运作方式相去甚远。从技术上讲,这样做是不可行的,因为模型无法堆叠和乘法其能力,尽管这并不意味着 MoE 不值得。这份报告是关于 MoE 论文的良好入门读物,尽管它现在已经有一年左右的历史了。
如今,Bittensor 最大的优势在于其社区以及其雄心勃勃地追求在链上构建整个 AI 堆栈;其主要问题(除了产品之外)在于 TAO 代币排放的不可持续性,因为奖励的发放并未与实际进展挂钩。还有像 Morpheus 这样的其他网络,仅根据平台上产生的需求来奖励矿工,而 Bittensor 则采取了相反的做法。实际上,这意味着即使某个子网在 Bittensor 网络上没有需求,你仍然可以获得代币奖励,这与网络需求无关。在解决这一根本性问题之前,Bittensor 仍是一个有趣的思想实验,但其可持续商业化的道路仍不明确。
Gensyn
Gensyn 希望构建一个分散的训练和计算平台,重塑模型从概念到成品的转化方式。
其简版白皮书描述了新大型语言模型(LLMs)的计算复杂性每3个月翻一番的现状。如今,模型数量和提供各类计算的公司都比以往任何时候都多。Gensyn声称当前的解决方案要么a)太昂贵,b)太寡头垄断,要么c)技术规模太有限。为了高效且有效地生产一个大型语言模型,需要一种能够以可扩展方式在链上验证的解决方案。
机器学习“本质上是状态依赖的,需要新的并行化和验证方法”,导致目前的解决方案只能用聚合计算来做非常简单的任务 — — Gensyn以3D渲染为例。他们希望创建一个“以无需信任的方式连接和验证链下深度学习工作的成本效益高的协议”,但面临一些重大障碍。
“这个问题的核心在于深度学习模型的状态依赖性;也就是说,深度学习模型的每一层后续都以前一层的输出作为输入。因此,要验证特定点的工作完成情况,必须执行到该点包括该点在内的所有工作。”
在加密技术中,欺诈证明和零知识证明之间的区别可以作为一个有用的类比来描述这一点。零知识证明之所以具有革命性,是因为它们可以在不泄露任何关于被证明陈述的信息的情况下,证明某人知道某个秘密,从而大大减少了证明某事完成所需的工作量,尽管这需要非常复杂的数学和密码学。Gensyn通过避免必须不断完成和复制工作以达成确认的情景,希望变得更快、更便宜、更具可扩展性。
欺诈证明需要重新执行区块链的特定部分以证明交易是恶意的。Gensyn描述的情况与此有些相似,即机器学习的输出如果没有大量重复工作就无法高效验证。其他突出的问题包括并行化、缺乏以隐私为中心的设计以及构建新市场动态。
他们的解决方案最终形成了一个L1协议,直接奖励供给侧参与者对网络的计算贡献,无需任何行政监督或广泛管理 — — 在Bittensor的Discord服务器中可以看到这种证据。
Gensyn声称通过使用概率学习证明、基于图的精确定位协议和Truebit风格的激励游戏,结合四个主要网络参与者:提交者、解决者、验证者和吹哨人,实现了超过1350%更高效的验证解决方案。这四个参与者共同提出需要机器学习工作的任务,执行训练和证明生成,验证和复制证明的部分,并挑战可能不准确的输出。
选择在加密货币框架上构建这个平台,旨在消除中心化对手方,降低新参与者的进入门槛。理想情况下,通过使用区块链技术,Gensyn将提供一个无偏见且低成本的构建者平台。该协议的工作流程可以通过这个非常简单的流程图来可视化:
Gensyn 要想真正取得成功,需要在之前指定的参与者之间进行有效的协调。他们希望成为第一个完全在链上完成的无需信任的深度学习计算的第一层区块链,由其提交者和解算者之间最有效的市场进行协调。
Prodia
如今更为人熟知的人工智能公司,在投资者认知与当下截然不同的时期筹集了资金。当时,人们认为人工智能将取代除创意产业外的所有行业,因为创意显然是人类独有的、依赖品味的理想。随着Midjourney(文本到图像)和Runway(文本到视频)等团队的进展,人们逐渐意识到建立在先进机器学习基础上的生成艺术和创意平台的能力。图像和视频的质量以惊人的速度提升,最近Midjourney生成的图像越来越难以与实际照片区分。Prodia是一个通过其独特的API提供动态图像生成服务的平台。该网络拥有超过10,000个GPU,总共生成了4亿张图像,为用户实现了两秒的生成时间。
Prodia面向独立开发者和企业进行营销,其运营商网络每天贡献超过12,000小时的计算能力,以满足几乎任何类型的图像生成需求。Prodia已经构建了基础设施,试图最大化其运营商的收入,使他们与NiceHash相比,每月能多赚10–15倍。
对于消费者来说,Prodia的主要吸引力在于其推理价格便宜50–90% — — 如果需要生成数万张图像,Prodia在Stable Diffusion的1.5、XL和3.0模型上提供具有竞争力的价格。关于Prodia,除了指出其是一个建立在DePIN基础上的收入生成业务外,没有太多值得一提的内容。Midjourney继续作为图像生成的黄金标准,凭借其月费订阅模式,值得关注Prodia将如何竞争。在很大程度上,人工智能生成的图像正变得越来越难以与真实图像区分,这应为Prodia提供了进入不同类型市场的机会。如果你试图了解更多关于他们如何收费或为自己的业务使用产品,他们的文档是一个很好的信息来源。
Ritual
Ritual 是另一个专注于软件的去中心化人工智能协议,旨在结合区块链和人工智能的优势,将自己描述为去中心化人工智能的主权执行层。其诞生源于传统人工智能领域存在的结构性问题,如组织寡头垄断、计算成本高昂、大型人工智能实验室的中心化API以及模型输出和结构的不可验证性。
他们的解决方案是 Ritual Infernet,这是网络的第一个版本,通过“一系列可执行层模块套件”将人工智能引入链上应用,使区块链上的任何事物都能将Ritual用作协处理器。Infernet架构较为复杂,涉及数据可用性(DA)层、路由器、节点集和存储组件。
仅从图表中难以完全理解其工作原理,但简而言之,Ritual通过智能合约请求、利用链下计算、对模型输出进行链上验证以及无缝集成到去中心化应用(dApps)中,使区块链更易与人工智能连接。若数据和用户逐渐向链上迁移,Ritual这类技术有望助力这一转变。这可能与一些人描述的开放世界 discourse 存在重叠,尤其是像Parallel或Wayfinder这样的团队。
Infernet的即插即用基础设施模型是一个不错的优点,因为他们可以根据需要选择加入或退出现有和未来的技术,而不会破坏系统。该平台目前可通过Infernet SDK访问,团队已与Nillion及其多方计算(MPC)技术建立合作伙伴关系。
我们总是乐于见到团队思考其技术的潜在用途,Ritual也不例外,他们列出了一些可使用其技术栈构建的潜在初创项目:
- 多智能体交易框架
- 启用机器学习的借贷
- 启用机器学习的自动做市商(AMM)
- 模因币+启用机器学习的技术
Ritual的最终目标是作为去中心化人工智能的基础层运行,假设他们能够提供既实用又易于集成的基础设施,他们可以作为将部分人工智能引入链上的渠道。
Grass
我们在此讨论的最后一个与去中心化人工智能相关的项目是Grass,一个重视数据的协议。
Grass 旨在帮助个人掌控数据,为新一代人工智能模型做出贡献。参与者允许 Grass 利用其闲置带宽,将其出售给人工智能实验室,用于模型训练或其他研究。为了推动大型语言模型(LLM)的发展,需要大量独特的数据。虽然现有的网络数据可以利用,但人工智能实验室已经在探索合成数据等替代方案,以获取更多独特的数据。
Grass的解决方案很简单:用户下载Grass扩展程序,创建账户,并在后台运行,同时继续在线活动。目前,该网络已经吸引了超过两百万的贡献者。Grass 是该领域的早期进入者,产品简单,早于大型语言模型(LLM)数据重要性凸显之前推出。
Grass 的架构在我们看来过于复杂。它希望作为一个L2数据汇总层,用于去中心化的网络爬虫、数据收集和模型微调。该架构通过一组验证者和节点(在设备上运行Grass的用户)来管理,这些节点与网络服务器和路由器通信,并通过零知识(ZK)处理器进行验证,以确保训练前数据的完整性。
Grass的分布式节点和验证者基础设施使其能够抵抗单一IP地址的速率限制。在去中心化物理基础设施网络(DePIN)之外,网络爬虫会存在问题,因为无法在单一设备上运行所有操作,这限制了网络的可扩展性。理论上,通过分解任务,Grass可以在整个网络中发送检索请求,实现一定程度的并行处理。
Grass主要管理两种类型的流量:部分加密流量(PET)和完全加密流量(FET)。PET的使用使Grass能够重新加密之前加密的数据,以提高质量、完整性和带宽确认。FET则使Grass在牺牲一些性能的前提下,为用户提供更多的隐私保护。节点负责在验证者、路由器和网络服务器之间中继这些流量,所有这些操作都在后台进行,用户无需额外操作即可赚取Grass积分。
Grass的模型(Chrome扩展程序)确实引发了一些问题:
- Chrome扩展程序到底有多大的防御性?
- 随着用户加入网络,Grass如何保持数据收集的速度并实现扩展?
- 以这种方式进行训练是否现实,或者更好的方法是成为 Honey 的加密版本?
- 如果这些数据是在用户被动浏览互联网时收集的,与已经输入到每个开源或闭源大型语言模型中的更强大的数据相比,其价值如何?
去中心化人工智能空间仍处于极其艰难的境地,因为大多数机器学习开发者更倾向于使用传统技术栈。切换或尝试基于加密的平台的机会成本仍然很高,但信誉良好的团队将具有巨大的优势。
我们相信,随着这些市场动态的发展,加密技术将发挥巨大作用 — — 世界上最大公司的领导者都渴望在这一领域获得任何可能的优势。他们中的许多人公开承认,他们将这一领域视为公司生存的关键。这并不意味着我们一定会看到在加密与人工智能领域建立大型公司,但土壤是肥沃的,对于那些独特理解这两个领域的团队来说,回报是巨大的。
Data Capture and Management 数据捕获与管理
数据是一个广义的术语。
如今,我们所做的每一件事都会生成某种形式的数据。医疗保健公司专注于收集、维护和分析患者特定的数据。社交媒体平台希望获取用户数据,以揭示平台行为和独特互动的见解。营销机构则希望获得与其广告活动以及消费者转化效果相关的数据。目前,被收集并上传到互联网的数据量比以往任何时候都多,而且没有理由预期这一趋势会放缓。
在去中心化物理基础设施网络(DePIN)的背景下,数据与加密货币之间的联系显而易见:区块链作为数据来源,因其不可变性以及只要网络得到适当验证就会持续存在,显得尤为突出。这也是创始人常见的宣传点 — — 收集的数据因其独特性或特殊性而将被货币化。然而,通常情况下,对于各种类型数据的传统市场实际运作方式存在误解。DePIN的数据世界仍处于欠发达状态,但在我们看来,有四个核心类别特别有趣:内容分发网络、地图绘制、定位以及与气候/天气相关的数据。这里涉及的专用硬件程度各不相同,但在我们看来,最具有防御性的DePIN网络是那些能够应对艰难的现实世界挑战的网络。
上一部分围绕数据的重要性展开讨论,而这一部分将深入探讨数据收集的复杂性以及不同形式数据的市场,并阐述其在实际应用中的真正价值。根据Messari的2023年DePIN现状报告,数据在以下情况下最具价值:
- 有众多买家
- 这些买家从中赚取大量金钱
- 更好的数据是他们赚取更多金钱的限制因素
有趣的是,我们常常发现,加密团队对其收集的数据类型的实际价值只有模糊的理解。仅仅从宏观层面理解,如果团队不能敏锐地意识到买家是谁以及什么对买家至关重要,就可能导致团队走上死胡同。关于对冲基金如何为热活动数据付费以了解活动峰值,或为卫星图像数据付费以了解发展中国家的增长速度,这些故事比比皆是。但这些都是极其本地化、具体且可操作的时序数据集,如果不知道最终用户是谁,我们常常会看到一种“为收集数据而收集数据”的方法。
那么,需求方面又是怎样的呢?谁在真正购买这些数据,又是出于什么原因?
- 地图与地理空间数据的买家包括:导航和高级驾驶辅助系统(ADAS)、参与城市发展的市政当局和私人公司、交通与物流、房地产和保险、对冲基金和私募股权、农业、国防、增强现实和虚拟现实
- 定位数据的买家包括:电信、零售、农业、测量员和建筑、增强现实和虚拟现实、无人机和机器人、航空、导航和高级驾驶辅助系统(ADAS)、汽车、航天机构
- 气候数据的买家包括:保险和贷款承保人、能源和公用事业、政府和非营利组织、建筑和房地产、农业、航空
Mapping
如今,我们对数据的熟悉程度日益加深。无论是谷歌地球和苹果地图,还是它们的数据收集方式,都已为我们所熟知。每天,汽车在全球范围内行驶超过十二小时,拍摄街道、人行道和房屋的照片。谷歌街景自2007年启动,旨在捕捉世界并将其影像导入应用程序,以帮助人们更好地导航。截至2022年,谷歌已拍摄了超过2200亿张图片,而苹果地图的“环视”功能也已扩展到航拍和卫星图像领域。
Hivemapper
我们同样熟悉去中心化物理基础设施网络(DePIN)中的类似项目Hivemapper,即成立于2022年,它旨在通过去中心化的方式进行位置映射。Hivemapper团队看到了映射服务不断增长的需求,这得益于现在超过15亿辆需要映射软件的车辆,以及企业对映射API的需求,还有每天使用谷歌或苹果地图功能的数十亿用户。
Hivemapper的论点非常简单:持续更新谷歌地图既昂贵又耗时。数据还会迅速过时,因为谷歌只是定期更新之前映射的街道。Hivemapper的方法是向网络参与者出售行车记录仪,这些参与者本来就会驾车出行,作为回报,Hivemapper会收集影像并给予代币奖励。
Hivemapper之所以与其他更中心化的服务(除了数据更新频率外)有所不同,其中一个原因在于,对于谷歌或苹果来说,自行映射人口稀少的地区往往颇为不便。与之相比,Hivemapper并不那么关注提供交通繁忙地区最全面的影像,而是更致力于绘制整个地球的版图。此外,它还力求在数据的更新速度和新鲜度上有所突破。谷歌地图或卫星影像的平均年龄通常为1至3年,在2024年看来,这些数据未免有些过时。截至今日,Hivemapper已经绘制了超过1471万独特的公里和总计超过2.9亿公里的版图。
好的,但问题随之而来,谁可能需要这些数据,它们是否有价值?
我们注意到,对冲基金一直在寻找这类数据优势,但需求方可以扩展到地方政府、保险公司和物流公司。如果Hivemapper在美洲中部地区拥有更好的覆盖范围,他们很可能会将这些数据出售给物流公司,以便其获取最新的道路信息,确定哪些路线更适合运输,或者了解哪些区域的交通状况可能比之前影像显示的更为拥堵或稀疏。保险公司可能会利用详细、最新的影像来评估财产状况、评估某个区域的增长情况,或者判断某个位置是否需要重新评估。显然,还有其他许多货币化的途径,但这就是许多这类数据收集网络正在采取的总体方法。
Hivemapper的方法之所以独特,还因为他们允许用户报告道路、基础设施或其他可能需要标记的异常情况的变化。用户可以通过对地图改进提案(MIPs)进行投票来参与网络治理,并利用其影响力来判断Hivemapper接下来可能需要优先处理的事项。Hivemapper可能是仅次于Helium的DePIN项目中较为人所知的,尽管其绘图速度令人印象深刻,但需求方将如何发展还有待观察。
Spexi
在DePIN领域花费时间的人会知道Spexi,它利用无人机通过高分辨率摄像头收集全球最高质量的影像。Spexi定位为首个“飞行即赚取”(F2E)网络,旨在让组织更容易获取高质量影像,以“应对灾害、实现智能城市、远程检查基础设施、监测自然资源”。
卫星、飞机和无人机是三种能够捕捉航拍影像的技术。这是一个我们觉得很容易在数据收集阶段迷失的领域 — — 捕捉到的数据量巨大,但最终可能因分辨率不足而不符合需求方的要求,这确实是一个风险。Spexi在其文档中强调,“最佳可用”的商业卫星影像仅以每像素30厘米的分辨率收集。这里有一张图片可以展示影像质量差异:
Spexi有机会优先考虑更高覆盖率、更高分辨率的影像收集。无人机正变得越来越便宜,这可能导致爆炸式增长 — — 购买一款价格实惠的消费级无人机比以往任何时候都容易。此外,Spexi的文档声称,地球上只有1%的区域被无人机捕捉到,这主要是由于缺乏标准和之前硬件成本高昂。
Spexi的商业模式非常简单。他们建立了一种称为Spexigons的标准化账户单位,这些是用于计算地球22英亩面积的空间六边形。为了确保对这些无人机的适当管理,“每个Spexigon包含飞行计划信息,无人机使用这些信息(与Spexi移动应用配对)以确保它们在正确的高度、速度和位置飞行,以捕捉最佳的影像。”
通过创建这种更统一的数据收集标准模型,并结合激励机制,Spexi希望在保持更高分辨率的同时,捕捉到与卫星相同的影像,特别是在需求更高的区域。他们的飞行即赚取模型通过在Spexigon网格上指定的任务激励简短的自动化飞行任务,以收集数据。该平台仍处于测试网阶段,但他们希望通过诸如“通过质押机制预留Spexigons以获得优先捕捉权”等实用功能,确保长期可持续发展。
该平台计划对无人机操作员进行全面审查,建议在进行Spexi驱动的捕捉飞行之前至少进行十次无人机飞行。美国联邦航空管理局(FAA)实际上要求你成为一名认证的远程飞行员,美国各地几乎每所主要大学都定期提供相关课程。无人机如今可能不被视为比爱好玩具更高级的存在,但该行业正在增长,而且很可能其功能将被引入到需要频繁、详细影像的领域。
Positioning
地理空间定位和参考数据市场在大多数加密货币市场中了解较少。技术进步、采用率增加以及基于位置的服务日益重要,推动了这一类别在过去十年中的显著增长。总之,全球地理空间分析市场在未来几年可能超过1000亿美元,随着自动驾驶汽车、精准农业、太空探索、智能城市基础设施以及国防和安全等其他重要领域的采用,这一重要性可能会更快地增长。
自动驾驶汽车 — — 在导航和安全方面严重依赖精确的地理空间定位数据。
农业 — — 精准农业利用地理空间数据优化农业实践,提高产量,减少浪费。
太空探索 — — 卫星部署成本降低,导致低地球轨道卫星数量增加,这些卫星容易发生碰撞。
智能城市 — — 城市规划、基础设施开发和交通管理将大量依赖这种定位数据。
国防与安全 — — 不言而喻,监视、侦察和目标定位将推动对这种定位数据收集的持续投资。
如今,数据收集方式包括基于卫星的系统(GNSS卫星)、基于地面的系统(带有固定参考网络的地面站)、基于空中和无人机的系统(配备摄像头和激光雷达传感器的无人机)以及众包数据(主要是移动设备和物联网设备)。正如你可能预期的那样,加密技术可以独特地实现这些不同现有系统的混合方法。
Onocoy、Geodnet和Foam是当今这一领域中最知名的名字。地理空间数据是“与地球表面特定位置相关的基于时间的数据”,它结合了位置信息、属性信息和时间信息。这包括特定坐标、对象特征以及这些条件存在的时间跨度,尽管地理空间数据也可以被描述为静态或动态的。地理空间分析用于为这些信息集合添加相关数据,而地理空间信息系统则涉及“在视觉表示中对数据进行物理映射”。正如我们知道的那样,随着更多背景的添加,大型语言模型会得到改进,地理空间分析也是如此。
Geodnet
Geodnet是一个去中心化物理基础设施网络(DePIN)协议,致力于构建全球最大的实时运动学(RTK)网络,以实现对GPS技术100倍的改进。该平台利用摄像头、激光雷达和惯性测量单元(IMU)等设备中的传感器技术,为其三大核心产品提供支持:Geodnet卫星矿工、RTK服务以及原始全球导航卫星系统(GNSS)数据的收集。
在具体介绍Geodnet之前,先了解一下相关背景。激光雷达是一种用于自主车辆、气象模型、农业研究以及其他需要对物理环境进行精确分析的行业的遥感技术。RTK则是将人工测量与卫星影像数据收集中的误差进行整合,通过对信号和载波的详细分析来实现厘米级精度。这在土地测量、水文测量和无人机导航等领域最为常用。
Geodnet的平台利用被称为卫星矿工的参考站,从全球导航卫星系统(GNSS)收集信号。这些矿工提供RTK校正数据,并通过Geodnet网络将其传递给带有GNSS接收器的设备(如汽车、无人机等)。网络参与者需要购买矿工设备,将其连接,并管理每月20–40千兆字节的数据上传。目前有超过十一家供应商提供Geodnet矿工设备,价格在500–700美元之间。该网络的覆盖范围相当广泛,目前在欧洲、北美和澳大利亚的分布较为集中。
自2022年以来,Geodnet已经吸引了数千个“三频、全星座GNSS参考站”,其发展速度可与传统公司相媲美,后者需要自行安装所有基础设施。
DePINscan显示,每个矿工的平均日收益约为4.30美元,回本周期约为3–4个月。网络中有超过8000个矿工,分布在136个国家和全球3700多个城市。矿工获得的是GEOD代币,这些代币有资格从数据收集者/提供者那里获得代币销毁。一些早期DePIN代币模型的可持续性尚未得到验证,但我们看到越来越多的项目朝着与现有企业竞争的正确方向发展。
Onocoy
Onocoy实际上与Geodnet非常相似,他们也在构建RTK基础设施,以推动高精度定位服务的大规模采用。他们特别指出了一些问题,如参考站基础设施成本高昂、服务区域化、缺乏适用于大众市场的商业模式以及其他限制RTK基础设施按需扩展的约束。
Onocoy的方法是将参考站操作与校正服务提供分离开来;这可以显著降低参考站部署的资本支出,同时为在全球任何地方部署打开大门。每个设备都配备了一个与Onocoy验证者通信的钱包。一旦获取了精确数据,验证者将确定提交数据的质量和可用性,以构建奖励比例(以ONO代币表示),激励提供者更密切地监控其输出。他们提供的两项主要服务是永久性和最近的,分别针对不同的数据收集方法(科学与大规模)。
Foam
最后一个例子是Foam,它提供了工具和基础设施,无需使用卫星即可实现众包地图和去中心化定位服务。Foam的方法涉及地面无线电,这些无线电构成了一个容错系统,任何人都可以参与其中。与Onocoy和Geodnet使用更复杂的基础设施来获取极其精确的数据(精确到厘米)不同,Foam的目标是吸引尽可能多的参与者,以构建一个没有单点故障的弹性层。
Foam建立在以太坊上,并由FOAM代币管理,其网络包含两大主要服务:Foam地图和Foam定位。前者是一个“社区验证”的众包地点注册表 — — 这可以是任何东西,从占用以前无人居住的建筑物的新餐厅,到在线上信息有限的住宅公寓楼。Foam允许用户将其发现(称为兴趣点或POI)贡献给网络,因为该平台的目标是制作更个性化和有趣的地图。
验证模型非常直接。如果挑战者认为某个证明不正确,他们可以发起挑战,然后由Foam社区进行辩论。从这里,通过花费FOAM代币来组织和调整数据。
像谷歌地图或苹果地图这样的传统地图服务可能需要数年时间来更新其影像和信息。而使用Foam,很容易适应不断变化的物理环境并更频繁地进行调整。要加入网络,只需要支持Chrome的浏览器、web3钱包、FOAM代币和用于支付交易费用的ETH — — 然后用户就可以根据自己的意愿开始绘制地图。
Foam的定位产品是处理物理基础设施的组件,即Foam无线电网络。服务提供商设置和维护无线电,然后通过时间同步提供定位服务,这是对GPS映射的去中心化替代方案。Foam发现了现有空间协议的三个主要问题:位置编码、用户体验和验证。目前缺乏在智能合约中嵌入位置、物理地址或坐标的标准;此外,也没有在链上验证此数据的方法,更不用说以可扩展的方式了。“根据联合国的数据,世界上70%的地区没有地址,包括世界上一半以上不断扩张的城镇发展。”
还有其他尝试创建替代寻址系统的努力,以“提高人类记忆性、可验证性和机器可读性”,最好的尝试是What3word和开放位置码 — — 但这些系统最终都失败了,因为很难引入可持续的经济激励,以促进倡议的增长。
Foam还发现了位置验证中的问题,主要是由于缺乏对GPS数据的备份,因为该系统依赖于仅31颗卫星的极度中心化,这些卫星正在超出其极限。全球导航卫星系统负责管理电网电力传输的同步时间戳,促进与交易相关的定位数据,并处理股票交易所的自动交易 — — 所有这些工作都建立在其作为数十亿人日常使用的全球导航系统之上。
关于验证问题,民用GPS系统没有加密,也没有“起源证明”来防止欺诈。Foam的解决方案是使用加密空间坐标(CSC),这是以太坊上的第一个开放位置标准。这些CSC是以太坊智能合约地址,对应于物理地址,使用geohash标准以简化操作。此CSC标准可用于对物理世界中的任何位置进行声明或引用,允许智能合约活动“在空间维度上进行。”
Foam通过其区域锚点(ZAs)实现这一目标,这些远程控制的无线电节点被战略性地放置,以在不同地点之间收发LoRa数据包,并将这些信息转换为区块链可接收的数据。Foam的定位协议需要四个ZAs进行同步并形成一个区域,从而创建一个能够进行无限期位置跟踪的Foam区域。
在过去的三个月里,Foam宣布了一些重大更新,包括区域扩展和通过无线电波广播以太坊交易的能力。随着Foam的发展,他们已经扩展到了熟悉的加密领域,如威廉斯堡。
如果对Foam的具体信息感兴趣
Foam还推出了名为Gyroids的“即插即用”区域锚点(ZAs),它们完全集成Foam软件堆栈,改进了之前使用的基于树莓派的ZAs。他们还更新了移动节点,定义了Cycloids作为其更新的基础设施,使其成为口袋大小且不依赖互联网连接。Cycloids能够在以太坊网络上运行,是首款可在Foam的基于位置的共识机制上运行的硬件。除了广播交易外,Cycloid还充当硬件钱包,与Cycloid桌面应用安全交互 — — 对于这么小的技术来说,这是一项很酷的创新,而且仍然具有很强的可扩展性。这些Cycloids通过接收智能合约消息和交易数据,然后通过无线电波广播到兼容网关来工作。
不管这是否仅仅是一个出于好奇而非必要性的产品特性,这都很酷。目前严重缺乏能够与加密货币无缝协作的硬件,而硬件钱包是少数几个例子之一 — — Foam的Cycloids似乎是对硬件钱包功能的很好扩展,预示着我们未来可以借助这类硬件钱包实现更多功能。或许在不久的将来,我们不再使用信用卡、借记卡甚至智能手机来支付,而是改用更小巧的热硬件钱包,它们不仅能进行简单交易,还能实现更多功能。或许我们会看到更多像Cycloids这样功能强大、可扩展性高的产品发布,而不仅仅是存储加密资产的地方。
与过去几个月加密领域的其他一些领域相比,Foam的开发进展虽然小众但令人耳目一新。
Climate & Weather
气象学和加密货币似乎并非天作之合,但正是这种独特性让我们对其充满兴趣。
如今,气候与天气领域的去中心化物理基础设施网络(DePIN)项目还相对稀少,但已有一些公司如dClimate、PlanetWatch和WeatherXM崭露头角。我们喜欢关注大多数人尚未重视的领域,而这个领域无疑符合我们的标准。气候与天气DePIN的核心理念包含两个方面:
- 积累数据,提升预测精度:通过广泛分布的网络长期收集大量天气数据,可以创建更精确的预测模型,超越现有的天气输送系统。
- 实时本地化信息优势:分布式网络能够提供更加本地化和实时的信息,在极端天气期间尤其有利。
以下是对当前天气预报系统工作原理及其复杂性的简要但信息丰富的解释。
几乎任何事物都可以用于贡献天气数据,我们从多种来源获取这些数据,包括卫星、天气气球、飞机、天气站、雷达、船舶和闪电探测系统。世界气象组织(WMO)负责收集所有这些数据,并将其分发给各国气象服务机构、全球气候中心和私人气象公司。这其中包括大家熟知的AccuWeather和The Weather Company,以及一些较为 obscure 的组织如NOAA和ECMWF。
然后,这些数据被汇总并分发给不同类型的天气收集设备,如自动地面观测系统(ASOs)、合作观测计划(COPs)和中尺度观测网络(Mesonets)。这些设备承担着从简单或更专业数据收集到广泛网络用于分析高分辨率地理数据等不同职责。ASOs是能够收集温度、降水、云层覆盖、风速等数据的自动化气象站。
WeatherXM
WeatherXM是一个社区驱动的气象网络,旨在简化并使所有人的天气数据获取和分发更加高效。其网络由购买并管理WeatherXM气象站的参与者引领,共有四种不同的型号。
网络参与者部署气象站,并根据其数据质量(QoD)获得代币奖励,WeatherXM使用独特的QoD算法确保提交的数据准确且有价值。这些运营商收集与多种天气模型要素相关的数据,包括温度、紫外线指数信息、降雨量和湿度等。
其资源管理器显示,目前在全球范围内部署了超过5,285个活跃的气象站,主要集中在欧洲和北美,且提供了部署WiFi、Helium/LoRaWAN或4G-LTE气象站的选项。选择其中一种气象站设置取决于你的居住地和最合理的基础设施类型。
如果您在城市,最好管理 WiFi 站,因为那里更有可能有稳定的电源,而且由于密度较高,传输机会也更容易。Helium/LoRaWAN 站更适合没有稳定 WiFi 或蜂窝网络基础设施的农村地区。4G-LTE 站适用于几乎任何位置,但需要更高的运营成本和更多的关注。
WeatherXM 的原生代币是根据修订后的分配系统进行奖励的。虽然这并不完全简单,但重点关注a)贡献频率、b)数据质量、c)数据验证和d)站点位置。如果提供商在服务不密集的人口密集城市的地方收集一致、高质量的数据,他们应该能赚到更多的 WXM。
dClimate
与WeatherXM不同,dClimate专注于民主化现有的大量天气数据,将其转化为更具体的输出,并允许更多个人访问。该平台由三个主要产品组成:dClimate数据市场、CYCLOPS监测和Aegis气候风险管理。
dClimate白皮书是了解传统天气数据系统现有问题的绝佳资源。原始气候数据传统上由学术研究项目和政府合作产生。这导致了数据访问相当封闭,而dClimate希望通过扩展地面气象站网络,在全球更重要的地区获得更好的覆盖,从而打破这种局面。其中一个主要问题是,过去没有可行的方法让业余爱好者建立自己的气象监测系统,将数据反馈给聚合平台。这些数据服务仅与已建立的管道兼容,排除了普通个人的访问。
通过在两个关键领域推动创新 — — 清理数据和自然灾害模拟 — — dClimate能够切入天气数据堆栈的一个较小部分。其解决方案是一个单一的、去中心化的数据采集和分发系统,适用于所有气候数据,用户提交数据,让dClimate负责存储和分发。其想法是,通过更高效地收集这些超本地化数据,dClimate可以迫使现有企业及其封闭系统转向更去中心化的数据收集方法。
白皮书定义了dClimate生态系统中的两个核心参与者 — — 数据消费者和提供者。提供者通过访问独特的销售渠道被激励使用dClimate。如果你是上述提到的业余爱好者之一,你将有机会将数据提交到有意义的聚合管道中。使用dClimate,你可以立即接触到寻找独特数据的专用渠道消费者。dClimate模式的另一个好处是,它允许提供者减少对分发的关注,因为他们已经与潜在买家建立了联系。
消费者仅仅是需求方 — — 寻找更好天气预报的气象公司、寻找作物模型的农民、寻找数据的非政府组织。dClimate正在促进活动,通过透明的系统将消费者和提供者对齐。
dClimate的数据存储通过IPFS维护,提供者在链上提交智能合约,作为其身份和提供数据意愿的证明。购买时,消费者必须提交稳定的加密货币支付,并附上IPFS哈希给提供者,明确他们想要购买的数据,Chainlink预言机完全在链上确认这笔交易。
dClimate平台还包括一些其他子产品,以协助市场和数据收集过程。Cyclops是一个数字测量、报告和验证平台,将所有与天气相关的环境数据整合到一个平台上。Cyclops被设计为自然资本监测工具,其用例从跟踪森林砍伐、监测森林健康到跟踪碳数据和信用。
还有Aegis,这是一个气候风险评估工具,允许企业检查与其天气业务相关的详细见解。Aegis旨在为用户提供更详细的信息,了解气候变化如何影响他们的直接环境。用户可以输入精确的坐标,接收风险分析。
这些附属产品似乎与主平台相辅相成,尽管dClimate在标准化、可靠性和融入传统系统方面仍面临挑战。
PlanetWatch
PlanetWatch是我们在气候协议中简要介绍的最后一个项目,它构建了一个用于去中心化空气质量监测的平台,以帮助对抗空气污染。经济发展与空气质量之间的相关性早已被研究,只要我们有从发展中到发达的经济体,我们就会面临空气污染问题。
仅在中国,空气污染每年导致超过200万人死亡,正如预期的那样,亚洲在全球范围内受影响最大。尽管美国和欧洲推动向更清洁能源转型,但问题依然存在。
PlanetWatch白皮书将该平台描述为一种创新方式,通过激励个人部署传感器,扩展本地空气质量监测,以实现“智慧城市即服务”。PlanetWatch特别致力于解决缺乏超本地空气质量传感器的问题,以便更好地告知个人他们所呼吸的空气有多清洁。有趣的是,这又是另一个似乎为生物黑客社区和加密货币之间某种合作做好准备的领域 — — 随着我们对个性化健康越来越关注,理解和改善空气质量将成为一个大产业。
空气质量差每年导致 700 多万人死亡,全球每 10 人中就有 9 人暴露在不符合世界卫生组织规定的空气质量标准中。空气质量差造成的外部影响每年造成数千亿美元的损失 — — 第一步是安装易于部署的传感器,这些传感器可以方便地放置以收集和记录连续的空气质量数据。
最近,PlanetWatch宣布Ambient Foundation 将接管网络运营并实施新的代币经济学。目前尚不清楚这实际上意味着什么,但这个想法足够新颖,值得在这里提及。
归根结底,数据收集是一个如此庞大的总称,它实际上并没有太多意义。即使我们在这里讨论的几个特定领域也只是触及了这个领域的表面,每个领域都有自己的货币化挑战。从我们的角度来看,从传统(非 DePIN)意义上理解这些商业模式的重要性不容小觑。使用分布式模型构建这些类型的网络具有巨大的优势,但我们认为,除了尽可能多地收集数据之外,还有很多细微差别。
从中我们可以得出一些关键结论:
- 是否存在这种类型的基础设施与非 DePIN 现有企业竞争的世界?
- 如果是这样,那么在未来十年以上,哪个垂直行业最有可能实现增长?
- 在全球气候变化之下,是否存在更具体的本地化气候数据市场?
- 硬件进步对于每家公司来说有多重要(更便宜的无人机、更长的飞行时间、更远距离的卫星通信、更专业的传感器)?
- 除了加密技术之外,还有哪些新兴技术能够使这些网络蓬勃发展?
我们实际上认为,在这个领域还可以建立一些有趣的相关公司。在本报告的结尾,我们特别提到了灾难响应网络,在某些方面,它将使用类似的硬件获取实时天气数据作为输入。
Services 服务
坦率地说,这是一个为目前不一定能整齐归入其他类别的网络而设的杂项。在我们的日常生活中有大量服务,通常在物理服务和虚拟服务之间有区别。顺便说一句,我们最近看到围绕DePIN中的大写P有一些讨论。有一种观点认为,网络越偏向物理层面,达到逃逸速度就越困难。反过来说,那些达到逃逸速度的网络与虚拟网络同行相比,将拥有更强的护城河。一个常见的说法是软件的边际成本为零,但我们很少讨论这如何影响竞争动态 — — 在一个开源软件世界中,建立持久的护城河变得极为困难。
在本报告的语境中,服务是指旨在提供更特定功能的协议,同时仍属于DePIN的大范畴。所强调的协议代表了可能尚未完全成型的类别、看似有些疯狂的想法,或者是两者的结合。
- Dimo:通用移动平台,连接车辆和驾驶员
- PuffPaw:通过实体电子烟推广“吸 vape 赚取收益”模式,激励个人戒烟
- Heale:为物流行业提供数据服务
- Silencio:全球噪音污染测量网络
- Blackbird: enables users to network with restaurants and earn rewards
- Shaga:低延迟、高性能云游戏的DePIN
这些都是非常独特的商业模式,但它们的共同点在于利用加密货币激励来驱动现实世界的行为。接下来,我们不按特定顺序介绍其中的几个。
DIMO
多数人对Dimo应该都不陌生,这个平台为智能网联汽车应用和服务提供支持。Dimo认为,如果技术由用户拥有且开源,用户就能节省开支,同时从应用和服务中获得更好体验。Dimo协议利用区块链技术,通过少量适配大多数车型的应用程序和设备,构建了一个涵盖通用数字车辆ID、车辆控制、支付和数据传输的网络。驾驶员连接车辆并上传数据后,可以获得DIMO代币作为回报,不仅能分享每周的DIMO代币发行份额,当应用开发者或数据消费者为数据支付更高费用时,还能获得额外奖励。
在Dimo平台上进行交易必须使用DIMO代币,数据购买方需要用该代币支付服务费用,这一设计非常合理。如果硬件制造商想要开发连接驾驶员与Dimo网络的新设备,这些实体设备必须抵押DIMO代币才能成功接入网络。Dimo的发展令人印象深刻,目前已为约3.5万名持有者铸造了超过10.4万个独特的车辆ID。这些ID大多与较新的汽车绑定,其中超过一半属于2020年及以后推出的车型。
Dimo的发展速度令人瞩目,目前已有约3.5万用户铸造了超过10.4万个车辆数字ID。这些ID主要来自较新的车型,其中2020年及之后上市的车辆占比过半。Dimo的核心观点是:随着汽车数据价值不断提升,将为诸多领域带来革新机遇,无论是实现全自动化的车辆管理局,还是能向自动驾驶汽车发送指令的智能停车场。
Dimo的终极目标是打造一个由其网络驱动的汽车应用生态系统,最终实现所有车辆的互联互通。在其官方博客中,近期推出的创新服务包括:根据行驶里程奖励用户的行车记录仪App、优化后的车辆贷款再融资方案,以及随时响应的移动修车服务。
Blackbird
Blackbird是一款旨在回馈餐厅顾客并推动未来餐饮经济发展的应用。这款应用的核心理念很简单:顾客在喜爱的餐厅用餐次数越多,获得的奖励就越多,这些奖励会随时间累积,最终兑换成个性化用餐体验。Blackbird致力于搭建餐厅与顾客之间的桥梁,为双方提供一个共享的互动网络和奖励体系。
当今餐饮经营者面临着前所未有的挑战:5%的营业收入都消耗在信用卡手续费、第三方配送等中间环节。同时,科技在餐饮业的作用愈发重要 — — 2019至2024年间,数字渠道销售额占比从8.9%激增至20.8%。
“餐饮经营者必须认清这个简单却严峻的现实:仅靠规范运营和传统经验已无法保证经济可持续性。”
Blackbird的Flypaper报告指出,现有餐厅会员体系存在四大痛点:利益错位、数据失真、缺乏控制权以及消费积分流动性差。对此,Blackbird推出了包含四大功能的解决方案,通过建立独特的顾客档案系统,在餐厅与忠实顾客间建立直接联系。这些档案包含顾客签到记录、联系方式、钱包余额,以及餐厅对顾客终身价值的预估评分。
Blackbird的愿景是构建一个庞大的餐厅网络,让成员餐厅无需依赖传统会员体系就能获得稳定客源。选择Blackbird的餐厅经营者可以更专注于菜品质量和服务体验,因为他们能更早享受到科技带来的效率提升。全球顾客忠诚度计划市场规模约117亿美元,而Blackbird通过简化流程和提升体验,让这一体系更易被顾客接受。
使用Blackbird的顾客会获得餐厅奖励的FLY代币。完成支付或签到等行为都会触发FLY奖励,鼓励顾客持续光顾。FLY代币作为标准化记账单位,既是餐厅的评分工具,顾客也能在Blackbird联盟餐厅消费或兑换特权。截至2024年8月,该协议已发放超1.285亿枚FLY代币,覆盖顾客和餐厅经营者双方。
相比传统积分体系,FLY代币的最大优势在于其通用性 — — 获得的积分可在所有Blackbird联盟餐厅使用,创造共享价值而非孤立权益。对加入持观望态度的餐厅需要考虑网络效应:当周边竞争对手都已接入Blackbird时,拒绝加入可能意味着错失吸引新客的良机。
Blackbird在纽约市取得显著成功,城市高密度人口为口碑传播提供了天然优势。不过需要指出的是,初期FLY代币发放过量可能会成为隐患 — — 公允地说,代币超发是许多加密企业都会面临的通病。
Silencio
Silencio 正在创建一个用于减少噪声污染的全局网络,在移动应用程序的帮助下,用户挖掘了“噪声硬币”以记录超本地噪声数据。他们的lite纸引用了一个统计数据,即到2050年,全球人口中有超过68%的人口将居住在城市中。您可能期望的是,如果您住在一个城市,您更有可能受到噪音污染,欧洲环境机构将其描述为空气污染(KEK)旁边第二大危险污染。
对于从未经历过噪音困扰的人来说可能难以理解,但这种影响确实存在。举个例子,当你第一次在大城市过夜时,整晚都会充斥着警笛声、汽车喇叭声和街道上的嘈杂人声。近年来,我们已经痴迷,为了改善我们的日常健康状况,并有可能预防疾病。假设噪声污染是一种威慑力量,以能够获得一致的休息的方式,Silencio希望通过奖励任何为网络做出贡献的人来实现这一未来。
用户流程包括注册一个免费移动应用、记录你的位置数据,并向Silencio提交周围声级(dBA)以换取代币奖励。Silencio接收这些数据(从未以如此规模收集过),并将其用于任何希望预防噪音污染或改善城市居民福祉的行业。必须承认,这确实引发了一个问题:这个特定应用的需求方到底是谁。
Silencio改进了生成噪音污染地图的先前方法,最显著的是通过使用智能手机而非固定的环境传感器。在全球范围内捕捉准确和最新的噪音污染地图,没有比这更好的设备了。Silencio引用了两篇与其技术栈相关的研究论文:Murphy和King2015年关于环境噪音测量的研究,以及2021年关于与噪音评估相关的众包数据收集的研究。
他们的方法是通过智能手机麦克风简单地测量噪音数据,并收集足够的数据以最小化被测量位置的误差范围。这个想法是,即使这项技术并不完美,如果不利用智能手机这种全球采用的技术,你就无法构建这个全球数据网络。
到目前为止,覆盖范围令人印象深刻,印度大部分地区、西欧和美国已拥有大规模半准确的噪音污染数据。Silencio能否将这些数据变现仍有待观察。
与之相关的是,我们认为这里有空间可以构建声学传感器网络。我们在下面分享了核心的前提,但是我们的论文数据库有更多的详细信息。
PuffPaw
Puffpaw 是一个vape-to-to-earn项目(电子烟赚钱,是的,这是真实存在的商业实体),旨在通过代币激励和监测使用习惯的实体雾化设备,鼓励个人戒烟。
我们深知香烟和其他可燃烟草制品的危害:仅美国每年就有超48万人死于吸烟相关疾病,二手烟每年导致超4.1万人死亡。烟草产品市场每年产生近1万亿美元收入 — — 对于一个积极吞噬客户健康的行业而言,这是惊人的数字。
PuffPaw 团队观察到近期不含烟草的尼古丁雾化器及口含烟市场显著增长 — — 其核心目标是通过相对更健康的替代品,激励人们控制成瘾行为。
“vape-to-earn” 机制既激励非烟草雾化器使用,也用于收集用户雾化习惯数据。PuffPaw的解决方案是可购买的实体设备,通过主动奖励尼古丁摄入量减少的用户 — — 整套系统围绕其物理雾化设备构建。
典型DePIN(去中心化物理基础设施网络)项目的生命周期围绕初始投资、挖矿和代币奖励分配构建 — — 这可能限制后来者,因为早期参与者可能已获得更多代币奖励并稀释后来者收益。PuffPaw的系统设计旨在维持可持续性,同时管理激励稀释和用户预期。
该项目尚未正式上线,但将独家部署在Berachain主网上。在理想情况下,PuffPaw将吸引一批非加密货币领域的新用户,并通过”vape-to-earn “模式作为他们进入加密货币世界的门户。
Shaga
Shaga 希望通过部署IDLE PC计算的分散网络来重新定义云游戏领域,该网络可以在全球范围内为游戏基础架构提供动力,从重点关注Web3游戏。 Shaga希望提供来自世界任何地方的零延迟游戏玩法,建立在Solana上,并利用P2P架构,因此任何人都可以参与游戏而不会为更多性能的设备付出钱。在最近的Twitter 转发中,Shaga提供了有关玩家在日常生活中面临潜伏期相关的问题的统计数据:
- 39%的玩家认为延迟问题是最大困扰
- 42%的玩家表示延迟限制了他们想要游玩的时长
- 24%的玩家会因延迟转玩其他游戏
- 20%的玩家经常遭遇延迟问题(移动端更严重)
我们已经看到游戏行业变得庞大,2022年游戏行业收入超过3470亿美元,其中超过三分之二来自移动游戏。这一数据表明全球大多数人无法获得游戏主机或专业游戏电脑。职业电竞通常仅限于PC游戏(如《英雄联盟》《CS:GO》)或主机游戏(如《Super Smash Bros》),专业移动电竞市场尚未形成,因为这些游戏通常面向不同的用户群体。
Shaga希望打破PC游戏访问的障碍,使个人能够提供空闲的计算以换取奖励,同时为没有必要的硬件要求的个人打开机会,以访问更具技术需求的游戏。 Shaga将这些PC转换为能够绕过集中式服务器的需求的节点,减少距离数据必须传播以促进这些游戏体验。
如果Shaga真能为没有个人电脑的用户提供这些游戏体验,这个机会将非常有趣。关于web3游戏如何与现代或传统游戏行业的技术栈竞争已有许多讨论,但这是一种独特的切入点。
Heale
Heale 是物流的统一API,连接异质物流系统并使数据构成数据以创建分散的物流“主记录”,以提高堆栈的所有层面。他们的白皮书重点介绍了10.4万亿美元的全球物流行业及其一致的增长 — 世界各地的每个人都需要运送到他们的商品。
这个过程不仅涉及成品运输,还包括用于生产这些商品的原材料运输。Heale阐述了阻碍物流行业全面采用21世纪技术的主要问题:
- 处理和管理成本高达最终交易成本的20%
- 6%的发票存在计费错误,每年造成超4.55亿美元损失
- 1.5%-9%的费用向运营商收取特征并提供营运资金的访问权限
- 400亿英里的空驶里程浪费60亿加仑柴油,造成280亿美元资源浪费
Heale专注于推动其产品设计的三个原则:
- 缺乏数据标准化
- 高转换成本
- 不明确的物流投资回报率
该平台目前作为一个定制的L2运行,利用EVM和Polygon CDK。
Heale的工作方式是让用户注册并在链上验证身份,创建未来业务和交易的联系点。这些实体可以接入Heale网络,在这个互操作系统中执行交易和提交交易。由于发送到Heale的所有数据都经过标准化和验证,用户交易时比在现实世界中更有保障。
Heale从 tmss (运输管理系统), ELDS (电子记录设备)和 IoT设备汇总数据,然后将其提交给区块链并发布用于实时用法。 Heale的好处之一是,其产品不需要用户切换其传统行为 — Heale只能改善该数据的使用方式。
Heale最初的重点是构建这个易用的API或SDK,以便托运人、经纪人、承运人和司机可以访问能够使用这些数据的开发者基础。提交高质量数据的用户会因其对网络的贡献而获得HEALE代币奖励。随着时间的推移,Heale收集的数据越多,就越能更好地奖励未来用户,并建立这个不受孤立系统拖累的物流地图。Heale希望参与从运输前操作到运输后支付的物流全生命周期。
Heale理想的最终状态将是一个极其强大的网络,拥有多年的物流数据,可扩展到物流生命周期的几乎所有环节。该领域的工作人员可以接入Heale网络,查找他们可能需要使用的特定运输方式的相关数据,并利用这些数据更好地理解自己独特的业务需求。
这个平台还相对较新,但Heale可能是加密货币被用作楔子进入传统慢适应行业的最佳范例。就像关于将新技术整合到现代电网中的讨论一样,Heale提供的解决方案不需要彻底改革我们的物流行业就能提高运营效率。
所有这些项目都在极其不同且大多未被充分探索的垂直领域进行建设。因此,虽然与永续合约交易所相比,加密货币的适用性不那么显而易见,但我们知道支付、验证、透明度和资源利用都是加密技术的核心基础。这些DePIN项目表明,加密货币一个未被充分认识的应用是其驱动协调和激励净有益行为的能力。这些项目是否会发展成为大型公司还有待观察,但它们是加密货币伸向传统世界并解决实际问题的几个触角。
Where Do We Think DePIN Is Headed? 我们认为 DePIN 的发展方向是什么?
这里还有巨大的设计空间等待探索,特别是随着相关技术的快速进步 — — 更优质、更便宜、更小巧且更高效的硬件设备即将问世。
以下清单虽不全面,但能让我们一窥这类网络将如何颠覆现有解决方案,或为刚刚萌芽的市场开创全新品类。必须承认,这些项目目前发展程度较低,投机性较强,但这正是风险投资的本质所在。我们已将其大致划分为公共产品、生物医疗、材料科学和传感器四大类别。
Disaster Response Network 灾难响应网络
自然灾害响应延迟的隐性成本触目惊心。虽然东南部飓风季是最典型的例子,但这类灾害其实无处不在 — — 加州山火响应迟缓、中西部洪灾、平原地区龙卷风,都会产生直接和次生经济影响。全球范围内重大自然灾害频发,而我们现有的应对基础设施却始终陈旧落后。
直接成本显而易见且数额巨大:应急服务每延迟一分钟,都会加剧财产损失、业务中断和医疗救治的直接成本。而保险索赔、经济产出损失等间接成本,乃至严重情况下的移民影响,往往在新闻热度消退后仍长期困扰受灾地区。
一个可行的解决方案是建立由智能合约驱动的去中心化设备网络,当传感器数据超过预设阈值时自动触发应急响应。基于区块链的平台能优化资源调配和实时数据共享 — — 随着加密技术向移动端发展,公民可通过嵌入式应用上报紧急事件、异常情况、提供援助并追踪本地化救援进展,这既能加速响应速度,又可实现更精准的救灾目标。
Distributed Robotics Training 分布式机器人培训
我们已公开分享过对去中心化机器人训练领域的看法 — — 尽管机器人技术已取得诸多进展,但这一领域的发展空间仍然有限。
目前有数个团队正致力于DePIN机器人项目:Mecka、XMAQUINA、KrangAI和FrodoBots。这些项目虽聚焦机器人技术的不同层面,但分布式训练机制似乎是最具价值且潜力巨大的发展方向。若能激励普通用户记录日常生活并将数据提交给机器人训练项目,或许可以大幅减少对合成数据或其他训练方式的依赖。
当我们讨论具备与人类或物体进行物理交互能力的通用机器人时,这类机器人需要海量通用数据来支持高度特定的交互或任务。此类数据收集难度极高,因为现有机器人研发主要集中于特定功能。特斯拉近期已开始向测试参与者支付每小时高达48美元的费用,用于长期机器人数据采集。
机器人产业正处在十字路口 — — 规模效应能否像推动自然语言处理和计算机视觉模型那样促进机器人发展,目前尚无定论。但无论如何,要像近年来大型语言模型那样实现规模化发展,必须首先完成海量数据收集。
“把握这波浪潮,意味着要认知到大数据和大模型带来的所有进步,进而开发算法、工具、数据集等以利用这些成果。同时也需要借助现有或未来将出现的视觉与语言大模型,将其应用于机器人任务。”
就目前而言 — — 从迪士尼最新研发进展来看 — — 我们距离在日常生活中与人形机器人互动还有很长的路要走。
Water Quality Monitoring 水质监测
随着关于微塑料在人体内存在程度的讨论日益增多,人们的注意力正转向日常供水系统和摄入物质。个性化健康监测即将成为常态。实现去中心化水质监测系统的一种可能方案,是部署家用消费级水质过滤器 — — 近期反渗透净水系统的购买热潮正是为了规避重金属、农药、氟化物和药物残留的摄入。虽然相关构想已有详细探讨,但区块链技术的引入为原本缺乏激励机制的领域提供了新的可行性。
DEPIN项目有很大的机会创建相对便宜的水过滤器,以插入房屋的管道,使用 pH传感器或浊度传感器,收集污染物数据,并奖励用始终如一的高质量水或一贯改善水质数据的用户。这个想法是激励用户 a)从水消耗开始的生活方式更健康, b) ,在没有意图改善或监测水的情况下,在官僚机构以外的官僚系统以外的当地水质方面有价值的见解。
Collaborative Space Debris Tracking 协作空间碎片跟踪
近年卫星发射量激增导致近地轨道(LEO)空间碎片和交通拥堵呈指数级增长。SpaceX和亚马逊等公司计划发射数千颗卫星构建全球互联网覆盖,同时卫星小型化显著降低了太空任务门槛。这使碰撞风险概率呈指数上升 — — 单次碰撞就可能造成价值九位数的卫星损失及置换成本。
追踪最小尺寸碎片(<10厘米)需要高灵敏度设备,目前可能超出业余爱好者预算。但成本将持续下降,且现有技术已能让业余爱好者创造价值.
雷达跟踪最有可能超出业余爱好能力,但是光学跟踪(对于具有8–14英寸光圈望远镜的人),激光范围和无线电跟踪(SDR接收器,天线和用于信号处理的计算机)都是有效的,并且今天都可以做到。这里的其他尾风包括:
- 诸如IASC之类的更多协作网络
- 消费级望远镜和相机的技术进步
- 开源软件开发以使数据处理更容易访问
分散式医疗保健平台 — — 我们已经对此进行了广泛的论述,但这个想法值得重申。
尽管Desci仍处于起步阶段,但在将加密货币激励措施引入医疗保健系统中并没有取得重大进展。生物黑客迅速迅速越来越受欢迎,并且个人在管理自己的健康方面变得更加活跃。
该系统可以采取多种形式:
- 移动应用程序个人与朋友竞争身体健身挑战以获得奖励
- 个人健康助理根据你的身体活动行为,通过智能合约对你进行经济奖励或惩罚
- 去中心化的 23andMe 将成为最大的、最准确的、可验证的个人基因组数据账本(在 ZK 证明的帮助下)
无论短期是否落地,医疗行业确实需要去中心化改革。Epic Systems凭借其电子病历系统在美国医院36%的市场份额形成准垄断地位。除核心软件系统外,临床试验结果、药品供应链信息和患者数据都难以获取。去中心化医疗网络的价值超越理论探讨 — — 它关乎人类福祉。如果我们能获取更多自身健康数据,并理解这些信息在医疗体系中的使用逻辑,重大科学发现的路径也将更加清晰。
当局限于这样的思想实验时,分散的医疗网络不仅有用,而且对人类很有价值。如果我们可以访问更多有关自己的信息,并更多地了解该数据如何在医疗保健行业中使用,那么突破性科学发现的途径也将变得更加清晰。
Tokenized Genetic Diversity Preservation 令牌化遗传多样性保存
传统集中式的生物多样性保护努力在发现以前未知或已灭绝的遗传变体时,并不具备广度优势。一种扩展这种范围以压缩发现时间、促进更有针对性的保护努力并可能在未来实现突破性去灭绝项目的方法是,利用分布式网络的公民科学家、自然学家和冒险家。但这可能会是什么样子呢?
Shared Dream Mapping 共享的梦想映射
我们始终认为人类每日8小时的睡眠时段将迎来技术快速革新。初级证据已体现在EightSleep智能床垫、睡眠追踪器等产品上,人们普遍认识到提升睡眠质量的重要性。随着脑部监测和神经调控技术进步,睡眠活动将成为创新沃土。我们在《加密未来》报告中提出过”基于联网神经接口的共享虚拟梦境”概念,而数据图谱化是另一个值得探索的方向。
高阶实施方案包括激励用户安全记录并私有化分享其梦境数据。相关研究浩如烟海(在此不做赘述),但让普通用户与睡眠研究员、心理学家及清醒梦专家共享数据的分布式模式极具潜力。鉴于数据敏感性,这比其它类型的DePIN涉及更复杂的设计空间,但结合代币激励、热衷实验的初始用户群体以及高难度数据采集需求,这种互补性模式并不难设想。
Closing thoughts 结尾
DePIN领域正在进行大量工作,它仍然是加密货币中最具长期可持续投资价值的领域之一。尽管取得了诸多进展,但通过分布式基础设施网络(无论是实体还是虚拟)仍有无尽的问题领域值得探索。
即使有这么多公司正在建设专业化的DePIN网络并开展有价值的工作,仍有一些加密货币原生问题无法回避。首要问题是如何建立公平、可持续且能创造价值的代币经济模型?许多项目虽然发行了代币,但具备深度流动性或可见需求的仍属少数 — — 这在现阶段是可以预期的。但我们认为最值得关注的团队有两类:要么深刻理解需求端所在并能实际解决问题,要么基于长期愿景构建当下尚未被广泛认知的价值。
Helium正成为DePIN的标杆案例,它成功突破传统领域并实现真正的发展势能。其成功验证了构建有价值网络的关键要素:拥有深厚领域专长的团队,在假设被验证或推翻时持续迭代转型,并交付真实产品。这些道理事后看来显而易见,但我们仍希望看到更多加密货币团队(包括DePIN项目)能尽早接触真实客户并深入理解需求。
本报告旨在全面覆盖DePIN生态,既剖析现有网络,也揭示我们认为应该构建的新方向,同时分享我们对竞争动态和公司建设关键步骤的内部观点。尽管通篇阅读需要时间,但希望您能感受到内容的广度与深度。我们的初衷不是用海量细节淹没读者,而是勾勒行业现状并阐明其未来吸引力。当然,我们遗漏了许多项目,可能存在谬误,也留下诸多未解问题 — — 在此先行致歉。
该领域仍面临诸多挑战,达到产品市场契合的团队凤毛麟角,但我们保持乐观,并持续投资于广义DePIN领域的建设者。虽然颠覆传统金融或改善全球支付轨道是加密货币更被公认的用例,但我们认为DePIN完全有潜力成为第三大支柱。
通常,加密货币领域存在怀疑主义倾向 — — “show me the DePIN coins that are worth owning” — — 这种短视观点忽视了初创企业的高失败率。加密货币并非像公开股票市场那样成熟的领域,要求像配置工业股或必需消费品股那样构建”DePIN组合”是荒谬的,这无异于用短期叙事交易初创企业股权。
正如大多数初创企业难以实现抱负,多数DePIN网络也终将折戟。但我们始终相信,这类基础设施网络所能解决问题的规模如此巨大,以至于最优秀的建设团队无疑值得支持与合作。
本内容仅供参考,不应作为投资决策依据 — — 文中任何内容均不构成投资、法律、商业、税务或其他任何形式的建议。Compound可能对提及的部分公司/协议持有投资头寸。