SevenX Ventures:多 Rollup 世界需要哪些前沿的基础设施?
本文为 SevenX 研究团队原创,仅供交流学习,不构成任何投资参考。如需引用,请注明来源。
作者:Grace
非常感谢@ 13 yearoldvc @prabalbanerjee @maqstik @ballsyalchemist @donnoh_eth @ChundaMcCain @shumochu @ranvirrana 001 等人就相关讨论和评论所作出的贡献!
最近出现了这样一个明显的趋势:越来越多 dApp 宣布推出自己的 Rollup 应用。此外,即将上线的通用 Rollup 数量也与日俱增。
随着交易量和 dApp 数量不断增长,以太坊面临着扩容问题,通用 Rollup 应运而生。这些 Layer 2 解决方案可在链下处理更多交易,然后将这些交易安全地记录在主链上,完美平衡了可扩展性和安全性。Rollup 的多功能性支持各种 dApps,每个应用程序都不再需要独特的扩展解决方案。
特定应用程序 Rollup 是量身定制的解决方案,可满足单个应用程序的独特需求,通过优化特定用例的事务处理来提高速度。在成本方面,这种 Rollup 可能提供了更高效的替代方案,特别是在网络拥塞时,这种效率就尤为可贵。Rollup 的一大特点是灵活。通用的 Layer 2 解决方案比较死板,并且更受 EVM 设计的限制,而针对特定应用的 Rollup 则可以量身定制,因此非常适合游戏等需要特定预编译的应用。此外,Rollup 帮助 dApps 更高效地获取价值,更有力地控制代币经济和收入流。
随着人们对 Rollup 技术的普及达成共识,展望未来一年,多个 Rollup 将主导市场,因此首要任务是要搭建起强大的基础设施,使其发挥“钢筋混凝土”的作用。
本文将深入探讨塑造未来多 Rollup 生态的四大基本支柱:
-
安全基础:安全层是去中心化世界中信任的基石。在本节中,我们将探讨安全层在确保 Layer 2 交易完整性、确定信任假设和解决潜在安全风险中发挥的关键作用。
-
平衡可定制性与互操作性:在不同 Rollup 之间实现无缝互操作是模块化区块链世界的关键。在本节中,我们将深入探讨模块化结构带来的互操作性问题,并讨论如何解决碎片化问题,建设有凝聚力的生态。
-
成本分析:要让 Rollup 广泛普及并具有可行性,关键点在于降低成本,这是因为与智能合约相比,降低成本可降低经济壁垒。Rollup 的成本效率主要通过两种方式实现:一种是与其他 Rollup 聚合、分摊费用来实现规模经济,另一种是将某些任务委托给外部服务提供商来实现分工。
-
共享安全性:共享安全层必不可少,因为它减少了为新协议或模块层确保安全所需的时间和资源,使其具有可与以太坊等成熟平台相媲美的强大安全性。目前已有许多解决方案,如 Eigenlayer、Babylon、Cosmos 的 ICS 和 Mesh Security 等应用。
上述四个层面绘制出了一份全面的蓝图,推动着繁荣、有凝聚力的模块化区块链世界所需的基础设施建设。
安全基础
信任和安全奠定了所有去中心化系统的核心。没有了信任和安全,那么无需信任的生态就成了无源之水。安全层至关重要,没有安全层,用户和总锁定价值 (TVL) 都暴露在风险中。Plasma 和 Sidechains 曾经被视为以太坊扩容的救世主,但它们的衰落为我们敲响了警钟。诸如“数据可用性”等问题破坏了信任,最终损失了用户。有鉴于此,本文将安全层作为第一部分来论述。
要理解 Rollup 的复杂性及其潜在漏洞,我们有必要剖析 Layer 2 交易的生命周期。以智能合约 Rollup 为例,接下来我们会深入研究每个阶段,并找出信任假设和潜在的安全风险:
通过 RPC 提交交易:
-
信任假设:RPC 端点是可靠且安全的。用户和 dApp 现在信任诸如 Alchemy、Infura 等 RPC 提供者。
-
安全问题:用户可能会遭到 RPC 提供者的审查,例如 Infura 和 Alchemy 阻止向 Tornardo Cash 发送 RPC 请求。RPC 提供者可能面临 DDOS 攻击,ANKR 遭 DNS 劫持攻击便是一例。
-
解决方案:Infura 等 RPC 提供者正积极推进去中心化路线图。此外,用户可以选择像 Pocket Network 这样的去中心化解决方案。
排序器对交易进行排序,提供预承诺:不安全状态
-
信任假设:用户认为排序器能够公平地对交易进行排序,并提供真实的预承诺。
-
安全问题:系统必须抵制审查,确保不带偏见地处理所有交易。系统必须始终保持运行状态,并且最好能够防范排序器以损害最终用户为代价获取不良最大可提取价值 (MEV)。
-
解决方案:
抗审查性 (Censorship Resistance, CR) 和有效性 (Liveness):根据抗审查性和有效性,当前解决方案的排名(从低到高)如下:单一排序器——POA——无需许可的 POS 排序器——共享排序器——基于 Rollup(按 Layer 1 排序)。
需要注意的是,相比于启用强制 txn 的中心化排序器,权限有限且不支持强制 txn 的 POA 的抗审查性可能更低。
至于有效性,需要考虑的另一个关键指标是提议者失败 (proposer failure),即当提议者离线时发生的失败。在这种情况下,必须确保用户仍然可以提取资金。
-即使排序器正在进行审查或拒绝工作,一些 Rollup 也允许用户自行将交易直接提交到 Layer 1 ,即应急出口(强制交易的有效性取决于具体的实施方式)。问题在于,对于资金有限的用户来说,这种做法可能成本过高,而且用户可能希望时刻具备抗审查性和有效性。
-某些 Rollup 解决方案,比如 Arbitrum 和 Fuel,允许任何人在经历了一定时间延迟后成为提议者,即自我提议。
-查看每个 Rollup 的指标:https://l2b eat.com/scaling/risk
-
更多其他不同解决方案的细节,可以参考我的先前帖子:https://twitter.com/yuxiao_deng/status/1666086091336880128
MEV 保护:
-
不同的隐私解决方案可以帮助保护用户免受抢跑交易或三明治攻击,因为交易信息被隐藏起来了(也有助于提高抗审查性)。隐藏交易信息的方法有:带有私有内存池的 FCFS(Arbitrum 和 Optimism 目前正在实施的方案)、SUAVE 的 TEE 解决方案、阈值加密(Shutter Network 正在研究此项技术)等。解决方案越复杂,交易的计算就越简化。
- 需要注意的是,我们需要的是保护 MEV,而不是消除 MEV。@tarunchitra 的研究总结了降低 MEV 的两个主要方向:通过强制执行排序规则来减少矿工重新排序交易的灵活性,以及引入一个竞争市场,用于重新排序、添加和/或审查交易。然而,本文得出的结论是,仅凭公平排序或经济机制都无法有效地降低所有支付函数的 MEV。在某些情况下,永远无法完全消除 MEV
在经济上合理时,排序器执行并将交易批处理和状态根发布到数据可用性 (DA) 层;安全状态
-
信任假设:出块者将整个区块发布到数据可用性层上,供他人下载验证。
-
安全问题:如果部分数据不可用,则区块可能包含出块者隐藏的恶意交易。即使区块包含非恶意交易,将这些交易隐藏起来也可能危害系统安全。排序器必须拥有可用的交易数据,因为 Rollup 需要了解网络状态和账户余额。
-
解决方案:
目前在以太坊上发布数据是最安全但也是最昂贵的解决方案(在 protodankshadring 推出之后会便宜 90% ,但即使吞吐量是原来的 10 倍,对于 Rollup 来说可能仍是杯水车薪):所有以太坊节点都可下载和广播 Rollup 的交易。由于以太坊有大量节点复制和验证交易数据,因此数据很难消失或完全不可用。
-在 danksharding 之后,以太坊节点不会下载所有交易数据,而是使用 DAS 和 KZG 仅下载部分数据(类似于下面提到的 Avail 的解决方案)。
-根据模块化概念,Rollup 将交易数据发布到只负责数据可用性的数据可用性层或许是更有效的办法(以太坊的理论性能可能略差,因为除了数据可用性之外,以太坊仍然保留 Layer 1 的执行,参见下面的 EigenDA 和以太坊的性能比较)。
当前的模块化数据可用性解决方案需要在安全性和性能之间作出权衡。我们很难仅通过一个维度来比较数据可用性的安全性:
-Avail 和 Celestia利用 DAS 确保数据可用性;只要有足够采样,数据就是安全的。由于数据不可用性很容易被极小部分的轻客户端检测到并恢复,因此轻客户端可以进行采样,并在很大程度上保证数据可用性。而如果没有 DAS,上述这些就无法实现。数据可用性层的去中心化程度,即网络中节点的数量,决定了安全级别和利益分配。EigenDA 不用 DAS,而是采用一种托管证明机制来防止再质押者 (restaker) 偷懒。换言之,数据可用性运营者必须定期计算一个函数,只有在下载了所有必需的数据后才能完成。如果无法正确证明 blob,则会受到惩罚(但在证明完成后就无需再进行存储)。
-确保数据复制过程(即纠删码)的准确性。EigenDA、EIP-4844 之后的以太坊和 Avail 使用 kzg 承诺来保证准确性,但这些都需要大量的计算。Celestia 采用了一种基于欺诈证明 (fraud-proof) 的设计。轻节点必须等待一段时间,然后才能确认一个区块已被正确编码,从而从它们的角度完成最终确认。(*如果有效性证明是更好的权衡选项,Celestia 可能会改用有效性证明)
-数据可用性层的经济安全性(重组和勾结风险):取决于数据可用性层中的质押价值,即 Avail 和 Celestia 中的质押价值的 2/3 。
-将数据可用性层的数据可用性证明书转发给以太坊。如果数据被发布到另一个数据可用性层,而结算合约仍在以太坊上,那么我们就需要一个桥接合约来验证数据可用性在数据可用性层中是否可用以进行最终结算。
--Celestia 的 blobstream 验证来自 Celestia 的数据可用性证明上的签名。该证明是由 Celestia 验证者签名的 Layer 2 数据的默克尔根,证明数据在 Celestia 上是可用的。这一功能目前已上线测试网。
--Avail 用 optimistic 的方法来验证数据可用性证明。一旦此证明被发布到以太坊上的桥接合约,就会开始一段等待期,在此期间,除非受到质疑,否则就会认为该数据可用性证明是有效的。
--Succinct 正在与 Avail 和 Celestia 合作开发基于 zk-SNARK 的数据证明桥接,通过验证 zk 证明,使证明过程更安全、更便宜。
--对于 EigenDA,分散器将任务拆分并发布到 EigenDA 节点,然后从节点处聚合签名并将数据传递到以太坊。
最终结算:最终确认的状态
-
信任假设 1 :
第一个有效的 Rollup 区块在主链上发布后,Rollup 全节点(可以在不依赖其他证明的情况下完全计算状态的节点)可以在其高度上对其进行最终结算,因为 Rollup 全节点拥有必要的数据和计算资源来快速验证该区块的有效性。然而,对于轻客户端等其他第三方而言,情况并非如此。它们要依赖有效性证明、欺诈证明或争议解决协议来无信任地验证状态,而无需独立运行完整的链副本。
-
安全问题 1 :
对于 ZK Rollups,Layer 1 验证零知识证明并且仅接受正确的状态根。困难主要在于零知识证明的成本和生成过程。
另一方面,Optimistic Rollups 依赖于一个前提,即至少有一个诚实方会迅速提交欺诈证明来质疑任意恶意交易。然而,当前大多数欺诈证明系统还不是无许可的,而且仅有少数验证者会提交欺诈证明。
-
解决方案 1 :
由 Arbitrum 的 BOLD 协议提供的无许可欺诈证明。目前欺诈证明受许可的主要原因是防范延迟攻击:
-在挑战期间,除了提议者之外的任何质押者都可以发起挑战。然后,提议者需要向每个挑战者逐一进行辩护。在每轮挑战结束时,失败方的质押将被罚没。
-在延迟攻击中,恶意方(或一组恶意方)可以通过发起挑战并故意输掉争议和质押,阻止或推迟将结果确认在 Layer 1 链上
-为解决该问题,BOLD 挑战协议确保世界上的单个诚实方可以战胜任意数量的恶意索赔,从而保证了 Optimistic Rollups 的结算确认时间不会超过某个上限值。
Witness Chain 可以作为新的 Optimistic Rollups 的监测方,以确保至少有一个诚实方会对无效状态发起挑战:
-诸如 Arbitrum 和 Optimism 之类的成熟 Rollups 有足够的内在激励,促使第三方提供者(如浏览器、Infura 类服务及其基金会)监控链状态,并在必要时提交欺诈证明。然而,新的 Rollups 或应用链可能不具备这种级别的安全性。
-Witness Chain 采用了一种独特的激励机制,即“勤勉证明” (Proof of Diligence),确保监测方(验证者)始终有动力监控和验证交易,从而保证提交到主链的状态是正确的。这种机制保证每个验证者都会尽职尽责,因为验证者获得的奖励对于每个节点而言都是具体且独立的。换句话说,如果一个验证者发现了赏金,它就不能与其他验证者分享这笔奖励,从而确保了每个节点都进行独立的验证。此外,Witness Chain 允许 Rollups 指定定制要求(如验证者的数量及其地理分布,地理分布由其独立服务支持的“位置证明”提供),因此多了几分灵活性,确保了安全性和效率之间的平衡。
* Watchtower 网络也正成为 Rollup 堆栈中的一个新层,为其他相关应用程序(如 Rollup 安全性本身、互操作协议、通知服务和 keeper 网络等)的执行提供全方位的安全性。未来将发布更多细节。
-
信任假设 2 :
智能合约 Rollups 的整个结算过程都是用 Layer 1 的智能合约编写的。假设数据可用性层上的智能合约逻辑准确、无漏洞,且没有恶意升级。
-
安全问题 2 :
智能合约 Rollups 的桥接和升级受多签钱包控制。桥接可通过恶意升级恣意窃取用户资金。
-
解决方案 2 :
眼下最普遍的思路是添加时间延迟,如果用户不同意计划的升级,可以退出。然而,这种解决方案要求用户不断监控其所有代币所在的链,以防他们需要退出。
Altlayer 的信标层 (Beacon Layer) 可以作为所有 Rollup 的社交层,为其提供升级服务。无论以太坊上的桥接合约是否升级,与信标层 Rollup 验证器一起运行 Rollup 的排序器都可以以社交方式分叉 Rollup。
长期来看:Enshrined Rollup 多年来一直是以太坊路线图的最终目标。除了在 Layer 1 上 enshrine 入桥接/欺诈证明验证器外,也 enshrine 入了结算合约。
-以太坊 PSE 正朝着这个方向努力。
至于主权 Rollup,主要区别在于链状态由 Rollup 全节点结算,而不是 Layer 1 中的智能合约。更详细的比较可以参考https://www.cryptofrens.info/p/settlement-layers-ethereum-rollups
需要注意的是,安全性提高不代表性能提高。通常情况下,安全措施的增加需要权衡可扩展性。因此,平衡这两者之间的关系至关重要。简而言之,Rollup 提供了灵活性,可以根据个人偏好选择不同级别的安全假设。这种适应性是模块化世界的一个显著特点,可以为特定需求提供量身定制的方案,同时保持系统的完整性。
平衡可定制性和互操作性
在模块化世界中有一句广为人知的格言:“模块化,而非最大化。”(“Modularism, not maximalism.”) 如果 Rollup 不能安全高效地进行互操作,那么模块化就不是最大化,而是碎片化。有鉴于此,必须解决不同 Rollup 之间的互操作性。
首先让我们回顾一下,单体链 (monolithic chain) 是如何实现互操作性的。简言之就是通过验证其他链的共识或状态来实现跨链操作。目前市场上出现了各种不同的方法,区别在于谁负责验证(官方实体、多重签名机制、去中心化网络等),以及如何确保验证的正确性(通过外部方、经济担保、Optimistic 机制、零知识证明等)。如果想深入了解这个话题,可以查看我最喜欢的桥接文章:关于互操作性的思考 (Thoughts on Interoperability)。
随着模块化的兴起,互操作性问题变得更加复杂:
碎片化问题:
-
Rollup 激增预计将显著超过 Layer 1 的数量,这是因为在 Layer 2 上部署要比在 Layer 1 上容易得多。这会导致网络高度碎片化吗?
-
尽管单体区块链提供了一致的共识和状态以便进行简单的验证,但如果模块化区块链有三个(甚至可能四个)不同组件(数据可用性、执行、结算和排序),验证过程会是怎样的呢?
数据可用性和结算层成为主要的数据源。由于 Rollup 本身提供了执行证明,执行验证已经是可用的了。排序发生在发布到数据可用性层之前。
可扩展问题:
-
随着新的 Rollup 引入,一个问题浮出水面:我们能否及时提供桥接服务容纳新的 Rollup?即使构建 Rollup 无需许可,你可能还需要花费 10 周的时间说服其他人添加一个 Rollup。当前的桥接服务主要面向主流的 Rollup 和代币。未来可能有大量 Rollup 涌入,人们担心这些服务是否能够进行有效评估并推出相应的解决方案支持这些新的 Rollup,同时不会影响安全性和功能性。
用户体验问题:
-
Optimistic Rollup 的最终结算需要七天时间,这比其他 Layer 1 要长得多。目前面临的挑战在于如何解决 Optimistic Rollup 官方桥接的七天等待时间。零知识证明的提交也存在时间延迟,因为 Rollup 通常会等待积累大批交易后再提交证明,以节省验证成本。像 StarkEx 这样的热门 Rollup 通常每隔几个小时才会向 Layer 1 发布一次证明。
-
为节省成本,提交给数据可用性/结算层的 Rollup 交易数据会有时间延迟(如上所述,Optimistic Rollup 需要 1-3 分钟,而 zk Rollup 则需几个小时)。对于需要更快、更安全的最终结果的用户,这一点需要抽象出来。
好消息是,针对这些挑战已经出现了一些新的解决方案:
碎片化问题:
-
尽管生态中的 Rollup 层出不穷,但值得注意的是,目前大多数智能合约 Rollup 共享一个通用的结算层,即以太坊。这些 Rollup 之间的主要区别在于其执行层和排序层。为了实现互操作性,这些 Rollup 只需要相互验证共享结算层的最终状态。然而,对于主权 Rollup,情况则会稍微复杂一些。由于结算层不同,主权 Rollup 要实现互操作性有一定的挑战。解决这个问题的一种方法是建立点对点(P2P)结算机制,每条链直接嵌入另一条链的轻客户端,促进相互验证。另一种方法是,这些主权 Rollup 可以首先桥接到一个中心化结算中心,然后作为连接其他链的中转站。这种以中心为核心的方法简化了流程,并确保了不同 Rollup 之间的互联更为紧密。(类似于 Cosmos 互操作的状态)
-
除了以太坊之外,其他潜在的结算中心还包括 Arbitrum、zkSync 和 StarkNet,为基于它们构建的 Layer 3 充当结算中心。Polygon 2.0 的互操作层也为构建在上面的 zk Rollup 充当中心枢纽。
-
总之,尽管 Rollup 数量及其变体正不断增加,但结算中心的数量仍然有限。这有效地简化了拓扑结构,将碎片化问题缩小到了几个关键中心。尽管 Rollup 的数量将比替代的 Layer 1 更多,但由于 Rollup 通常处于相同的信任/安全范围内,因此 Rollup 之间的交互比 Layer 1 之间的交互更简单。
-
不同结算中心之间的互操作性可参考前面提到的目前单体链之间的互操作方式。
* 此外,为了消除用户端的碎片化问题,包括 ZKSync 在内的某些 Layer 2 已经集成了本地账户抽象,以便实现无缝的跨 Rollup 体验。
可扩展问题
-
Hyperlane(为模块化链提供模块化安全性)和 Catalyst(无需许可的跨链流动性)应运而生,以解决受许可的互操作性问题。
Hyperlane 的本质是创建一个标准化的安全层,可以应用于各种链,使这些链天然具有互操作性。
Catalyst 旨在为模块化链提供无需许可的流动性。Catalyst 充当桥梁,让所有新链都可与以太坊和 Cosmos 等主要中心无缝连接流动性并进行交换。
-
Rollup SDK/RAAS 提供商在其生态内提供原生桥接服务
目前,新的 Rollup 大多是通过现有的 Rollup SDK 或 RAAS 服务启动的,因此它们本质上是可以与使用相同服务的其他 Rollup 互操作的。例如,对于使用 OP Stack 构建的基础设施来说,基础层就是一个共享的桥接标准,允许资产在共享 OP Stack 代码库的所有内容之间无缝移动。对于通过 Altlayer 启动的 Rollup,它们都被封装到信标层,信标层则充当结算中心,并确保安全的互操作性。而通过 Sovereign Labs 或 zksync 推出的 Rollup 则依靠证明聚合,直接与彼此进行互操作(稍后将进行更详细的解释)。
用户体验问题:
-
在深入讨论这一部分之前,让我们首先认识一下不同级别的承诺及其时间延迟:
一些参与方对 Layer 2 的第一阶段预承诺比较满意,例如像币安这样的交易所只需等待一定数量的 Layer 2 区块,就可以将交易视为已确认,而无需等待批处理提交到 Layer 1 。
Hop 协议等桥接提供商会在发送链上获取尽可能多的区块,并基于 Layer 1 共识(第二阶段)来确定终结。
对于信任最小化的桥接和使用官方桥接从 Layer 2 提取资金到 Layer 1 的用户而言,这段时间或许就太长了(数小时到 7 天不等)。
-
缩短第二阶段或第三阶段的收益是显而易见的,可为用户提供更安全、更快速的体验,并在更短时间内提供更强有力的保证。此外,实现信任最小化的桥接一直是令人向往的目标,特别是考虑到频繁发生的桥接安全事件。
-
缩短最终结算时间(Optimistic Rollup 为 7 天,zk Rollup 为数小时),即缩短第三阶段
Hybrid Rollup(欺诈证明 + 零知识):这种方法结合了零知识证明和 Optimistic Rollup 的优势。虽然生成和验证证明可能会占用大量资源,但只有在状态转换受到挑战时才会执行。与为每批交易发布零知识证明不同,只在提议的状态受到挑战时才计算并发布证明,类似于 Optimistic Rollup。这就缩短了挑战期,因为欺诈证明可以在一步内生成,并且在大多数情况下节省了零知识证明的成本。
-值得注意的是,Eclipse 的 SVM Rollups 和 LayerN 利用 isc 0 来生成零知识欺诈证明。OP Stack 已经支持 Risc 0 和 Mina 进行零知识欺诈证明的开发。此外,Fuel 最近也推出了一种支持多个证明者的类似混合方法。
在将数据发布到数据可用性层之后,对执行的正确性进行一些额外的验证,以提高置信度——这是高要求,与全节点相同。
-当排序器将交易批量发送到 Optimistic Rollup 的数据可用性层时,它确保了 x-rollup 交易的规范化排序和数据可用性。因此,唯一需要确认的是执行:S 1 == STF(S 0, B 1)。当然,你可以只运行一个全节点(这是高要求)来验证交易,但我们真正想要的是减少轻客户端的延迟。像 SuccinctLabs 和 RiscZero 这样的证明者网络可以通过提供简洁的状态证明来确认执行后的状态。这为 dApp 和用户提供了可靠的确认。
-Altlayer 在 Rollup 和 Layer 1 之间有一个信标层。信标层的排序器负责排序、执行和生成有效性证明(POV)。有效性证明允许验证者在不访问整个状态的情况下,在稍后验证 Rollup 的状态转换。通过去中心化验证器定期进行检查,我们实现了高度稳健的交易终结。不需要等待 7 天时间,因为验证器已经完成了必要的检查,从而更快、更安全地传递跨链消息。
-EigenSettle 通过经济机制保证验证。选择加入的 EigenLayer 节点通过计算来确保状态的有效性,并用抵押支持其承诺。只要金额低于这些运营者发布的质押金额,都可以被视为安全结算,并实现有经济支持的互操作性。
使用 ZK Rollup 的即时验证:
-Sovereign Labs 和 Polygon 2.0 采用了一种创新的方法,绕过结算层来实现快速终结。我们可以立即通过点对点网络传播生成的零知识证明,并基于传播的零知识证明执行跨链操作,而无需等待向以太坊提交证明。随后,我们可以利用递归将它们合并为批量证明,并在经济上可行时将其提交到 Layer 1 。
--尽管如此,我们仍然需要相信零知识证明的正确聚合。Polygon 2.0 的聚合器可以以去中心化的方式运行,让来自共享验证器池的 Polygon 验证器参与其中,从而提高网络的有效性和抗审查性。不过,由于从多个链中聚合零知识证明显然比在单个链上等待足够的零知识证明更快,因此这种方法也将缩短终结时间。
-Zksync 的超块链利用分层方法来聚合零知识证明,从而实现更短的终结时间。与在 Layer 1 上结算不同,超块链可在 Layer 2 上结算其证明(成为 Layer 3)。这种方法有助于消息的快速传递,因为 Layer 2 中经济高效的环境可实现快速且经济可行的验证。
--为了进一步提升可扩展性,我们可以用运行 Layer 3 和消息传递所需的最小程序取代 Layer 2 结算。通过可实现聚合的专门证明,这一概念已得到证实。
-
解决向数据可用性层发布数据的时间延迟(一些方法也可用于缩短结算周期),即缩短第二阶段
共享排序层:如果 Rollup 共享一个排序层(例如,通过共享的排序器服务或使用相同的一套排序层),Rollup 可以从排序器获得软确认。结合经济机制,这种方案可以确保最终状态的完整性。可能的组合包括:
-Espresso 提出的无状态共享排序器+构建者通过质押做出执行承诺。这种方法更适用于具有 PBS 结构的 Rollup,前提是区块构建者已经有部分区块的必要权限。由于构建者是有状态的,并且充当共享排序器的基础执行角色,它自然会做出额外的承诺。
-Umbra Research 提出的共享有效性排序:有状态的共享排序器+欺诈证明共同确保良好行为。排序器接受跨链请求。为防止排序器的不诚实行为,采用了一种共享的欺诈证明机制,对原始 Rollup 欺诈证明机制进行了轻微改动。在挑战期间,挑战者还将验证原子操作是否得以正确执行。这可能需要检查不同 Rollup 上桥接合约的根或检查排序器提供的默克尔证明。不诚实的排序器将受到处罚。
第三方干预:Hop、Connext 和 Across 等外部实体可以介入以减轻风险。这些第三方验证消息并为用户的跨链金融活动提供资金支持,有效缩短等待时间。例如,Axelar 和 Squid 的特殊功能 Boost(GMP Express)可将低于 20000 美元的跨链交易时间缩短至 5-30 秒。
用于桥接的 Intent Infrastructure 公链作为第三方干预的特定形式:这种经改进的基础设施可以吸纳更多第三方介入,解决用户的跨域意图。
-通过意图为中心 (intent-focused) 的架构(通过引入像做市商和构建者这样的复杂参与者,消除用户的摩擦和复杂性),用户表达其预期的目标或结果,而无需详细说明实现此类目标或结果所需的精确交易。风险承受能力高的个人可以介入,拿出必要的资金,并收取更高费用。
-这种方式更安全,因为只有在结果有效时,才会释放用户资金。由于更多参与方(求解器 (solver))无需许可地参与到求解过程中,相互竞争为用户提供更好的结果,因此这种方式速度更快、更灵活。
-UniswapX、Flashbots 的 SUAVE 和 Essential 都在朝着这个方向努力。更多关于意图,详见:https://www.odaily.news/post/5191537
-这个解决方案的挑战在于结算预言机。以 UniswapX 为例,为了促进跨链交易,我们需要结算预言机来确定何时将资金释放给求解器。如果结算预言机选择使用原生桥接(速度慢),或者使用第三方桥接(会引发信任问题),甚至是轻客户端桥接(尚未成熟),我们就会发现我们还是陷入了之前的循环中。因此,UniswapX 也提供了类似于 Optimistic 桥接的“快速跨链兑换”功能。
-同时,意图解析的有效性取决于求解器之间的竞争。由于求解器需要跨链重新平衡不同链上的库存,这可能会导致求解器中心化的问题,从而限制了意图的全部潜力。
总结一下,用户体验问题的解决方案有三种:
-
利用零知识技术的魔力:
这种解决方案的主要挑战在于零知识技术的性能,包括生成零知识证明所需的时间和相关成本。此外,在处理高度可定制的模块化区块链时,我们要考虑这样一个问题:我们是否拥有一个能够适应各种差异的零知识证明系统?
-
使用经济惩罚方案:
这种方法的主要缺点是去中心化方法固有的时间延迟(例如,在 EigenSettle 的情况下,我们必须等到上限达到为止)。此外,中心化方法只能提供有限的承诺(如共享排序),依赖构建者/排序者作出承诺,这可能会受到限制且缺乏可扩展性。
-
信任第三方:
虽然信任第三方可能会带来额外的风险,因为用户必须信任桥接,但支持意图的跨域交换是一种更加“去中心化”的第三方桥接形式。然而,这种方法仍然需要面对预言机延迟、信任问题和潜在的时间延迟这些问题,因为你必须等待某人接受你的意图。
有趣的是,模块化还为互操作性体验带来了新的可能性:
-
通过模块化组件提高速度:通过将组件细分成更小的模块,用户可以从 Layer 2 获得更快的确认(对普通用户来说可能已经足够安全)
-
用于原子交易的共享排序器:共享排序器的概念可能会实现一种新形式的原子交易,比如闪电贷 (flash loan)。更多详情请见:https://twitter.com/sanjaypshah/status/1686759738996912128
模块化互操作解决方案正迅速发展,目前所有方案都各有利弊。也许最终的解决方案离我们还有一段距离,但令人欣慰的是,我们看到这么多人都在为创建一个更安全、更互联的模块化世界而努力,以应对 Rollup 的爆炸式发展。
成本分析
与使用智能合约相比,导致现有 Rollup 数量有限的一个原因是经济因素。通过智能合约的运营则采用了一种更加灵活的成本模型,其中主要费用是 gas 费,而推出和维护 Rollup 会产生固定成本和可变成本。这种成本结构表明,Rollup 更适用于交易量大或交易费用相对较高的应用,因为这种应用能更有效地分摊涉及的固定成本。因此,旨在降低 Rollup 相关成本(固定成本和可变成本)的提议至关重要。正如 Neel 和 Yaoqi 在以太坊社区会议 (ETHCC) 的演讲中所阐述的那样,深入研究 Rollup 成本构成可以让我们更清楚地了解情况:
运用现金流折现法 (DCF) 分析等财务模型,可以帮助评估为应用推出 Rollup 的可行性。公式为:
DCF(收入 - 费用)> 初始投资
作为一个基准,用来确定运营收入是否超过了最初的投资,从而判断一个新的 Rollup 能否带来经济效益。如果协议能够成功降低运营成本同时增加收入,那么就有助于 Rollup 的推广。我们一个一个来看:
初始开发和部署费用
-
尽管有 Opstack 和 Rollkit 等开源 SDK 可用,但初始设置仍需要大量时间和人力资源进行安装和调试。比如将虚拟机集成到 SDK 中这样的定制需求则需要更多资源,以确保虚拟机与各 SDK 提供的接口相一致。
-
类似 AltLayer 和 Caldera 这样的 RAAS 服务可以大幅降低此种复杂性和工作量,体现分工的经济效益。
经常性费用/收入
-
收入(++++)
用户费
= Layer 1 数据发布费 + Layer 2 运营者费 + Layer 2 拥堵费
尽管一些用户费可能会被支出抵消,但仍须审慎审查并努力降低此类成本,因为如果用户费过高,Rollup 可能会变得不可持续。(在费用部分探讨)
-
矿工可提取价值 (MEV)
MEV 主要与来自链上的交易价值有关,可通过提高 MEV 提取效率或增加跨域 MEV 来增加 MEV。
与成熟的搜索器合作,通过提议者/构建者分离 (PBS) 拍卖来促进竞争,或者利用 SUAVE 的区块构建服务,凡此种种都可以优化 MEV 的捕获效率。
由于共享序列层或 SUAVE(共享内存池和共享区块构建)连接多个域,因此可利用上述二者捕获更多跨链 MEV。
-根据 Akaki 最近的研究,对于想要抓住不同链上的套利机会的套利搜索器来说,共享序列器是非常有价值的,因为它可确保在所有链上同时进行的竞赛中获胜。
-作为一个多域订单流聚合层,SUAVE 协助构建者/搜索器探索跨域 MEV。
费用(- - - -)
-
Layer 2 运营费
排序:要在中心化和去中心化排序方案之间做比较,可能有些棘手。在像效率证明 (Proof of Efficiency) 这样更去中心化解决方案中,竞争可将运营商利润保持在最低水平,并激励尽可能频繁地发布批次,以此降低成本。另一方面,中心化解决方案的参与方通常不多,这可以简化流程,但可能无法像去中心化解决方案那样降低同等成本。
执行:在这种情况下,全节点使用虚拟机 (VM)/以太坊虚拟机 (EVM) 执行新用户交易对 Rollup 状态的更改。
-通过优化的替代虚拟机(如 Fuel 和 Eclipse 的 Solana 虚拟机)可以实现并行执行,从而提高效率。然而,如果采用了与 EVM 不兼容的技术或解决方案,开发者和最终用户之间可能会产生摩擦,并出现潜在的安全问题。Arbitrum 的 Stylus 同时兼容 EVM 和 WASM(比 EVM 更高效),值得称赞。
证明
证明者 (Prover) 市场
-理论上,利用专门的证明者市场,如 Risc 0、=nil 和 marlin,而不是创建专有的中心化或去中心化证明者网络,可节省成本,原因如下:
-专门的证明者市场可能会吸引更多参与者,进而促进竞争的增加,最终降低价格。
-证明者可以优化硬件使用,当特定应用不需要立即生成证明时,证明者可以得到重新利用,从而降低运营成本,提供更便宜的服务。
-当然,这种做法也存在一些缺点,包括可能捕获的代币效用较少以及依赖外部方的性能。此外,不同 zk rollups 可能对证明生成过程有不同的硬件要求。这种差异可能对寻求扩大证明操作的证明者来说是一种挑战。
-有关证明者市场和证明者网络的更多信息:https://figmentcapital.medium.com/decentralized-proving-proof-markets-and-zk-infrastructure-f4cce2c 58596
Layer 1 数据发布
-
在以太坊之外选择一个成本更低的数据可用性层,甚至使用 DAC 解决方案,可以大幅降低费用,尽管此举可能影响安全性(在安全层中进一步探讨)。对于那些通常具有低价值但高带宽的游戏和社交应用来说,可扩展性可能比安全性更重要。
-
将以太坊作为数据可用性层可以利用 protodansharing 和 dansharding 来实现成本效益。此外,由于 blob 发布费是每个区块设定的,与 Rollup 对 blob 的利用无关,因此需要在成本和延迟之间取得平衡:虽然理想情况下,Rollup 会发布一个完整的 blob,但由于交易到达率较低,完全占用 blob 空间会导致延迟成本过高。
潜在解决方案:小规模 Rollup 的联合 blob 发布成本;
L1结算费
-
对于 Optimistic Rollup 而言,结算成本相对较低。在 Bedrock 之后,Optimism 每天只需向以太坊支付大约 5 美元;
-
对于零知识结算而言,零知识证明验证相对昂贵;
零知识证明聚合
-根据底层的证明系统,以太坊上的 Rollup 可能需要花费从 30 万到 500 万 gas 来验证单个证明。但由于随着交易数量增加,证明的大小增长非常缓慢(甚至根本不增长),因此 Rollup 可以等待积累大批交易后再提交证明,以此降低每笔交易的成本。
-如前所述,Sovereign Labs、Polygon 2.0 的互操作层可聚合来自多个 Rollup 的证明,然后每个 Rollup 可以同时验证多个 Rollup 的状态,从而节省验证成本。Zksync 的分层结构和证明聚合进一步降低了验证成本。
-不过,当两个域使用相同的零知识虚拟机或共享的证明方案时(zksync 的超块链使用相同的零知识 EVM 和完全相同的零知识证明电路 (circuit) )时,这种方法效果最佳;否则,可能会导致性能下降。
--NEBRA Labs 为以太坊上的证明验证带来了规模经济效益和可组合性。NEBRA UPA(通用证明聚合器)可以通用的方式聚合异构证明,从而分摊验证成本。UPA 可以用来组合来自不同来源的证明,以支持新的用例。
总之,节约 Rollup 成本的主要方法包括:
-
与其他 Rollup 共同聚合以分摊费用或利用规模经济:
值得注意的是,这种聚合对于实现互操作性可能也很重要。如前文所述,在不同的 Rollup 之间使用一致的层或框架可以简化 Rollup 之间的互动,确保信息交换不受干扰。这种整合策略加强了 Layer 2 基础设施的集成和统一。
-
将某些任务委托给外部服务提供商,充分利用分工原则。
随着 Rollup 的数量与日俱增(意味着你可以与更多合作方分摊费用),同时有越来越多 Rollup 服务提供商提供更精细的服务(提供更广泛的成熟上游服务提供商选择),我们创建 Rollup 所需的费用有望减少。
共享安全
如果你希望达到与源链相当的安全水平(无论是经济方面还是去中心化方面),只需部署一个智能合约或智能合约 Rollup 即可。如果利用源链提供的部分安全性即可提高性能,目前有几种共享安全解决方案可供选择。
共享安全解决方案极大地简化了大多数需要初始安全性的大多数协议或模块层的安全引导过程。这对于未来的模块化世界来说意义非凡,因为预计会出现更多基础设施/协议,促进模块化世界的功能,Rollup 将出现数据可用性、执行、结算和排序之外的更多模块。如果一个 Rollup 使用了某个模块层(比如数据可用性)或者安全性不符合以太坊要求的服务,那么模块链的整体安全性可能会受到损害。我们需要共享安全,实现去中心化和可靠的 SAAS 服务经济。
Eigenlayer、Babylon 和 Cosmos 的 ICS 以及 Osmosis 的 Mesh Security 在向其他基础设施实体提供去中心化信任服务方面发挥了关键作用。
-
Eigenlayer 允许以太坊验证者重新利用他们质押的$ETH 保护构建在网络上的其他应用。
-
Cosmos 的 ICS 允许 Cosmos Hub(“提供者链”)向其他区块链(“消费者链”)出借其安全性,并收取费用作为回报。
-
Osmosis 提出的 Mesh Security 允许代币委托者(而不是验证者)在生态合作方链上重新质押其质押的代币。这就实现了双向或多边安全流动,因为各应用链可以根据其 mcap 来增强整体安全性。
-
Babylon 允许 BTC 持有者在 BTC 网络内质押其 BTC,并通过优化比特币脚本语言的使用和使用先进的加密机制,为其他 POS 链提供安全性。
ICS 和 Mesh Security 都是 Cosmos 生态中不可或缺的组成部分,旨在促进跨链借用的安全性。这些解决方案主要解决了 Cosmos 应用链的安全需求,使其能够利用生态中其他链的安全性。具体而言,Cosmos Hub 的 ICS 为不希望引导验证者集合(复制安全性)的 Cosmos 链提供了解决方案,而 Mesh Security 要求每个链都有自己的验证者集合,但实现了更大程度上的链治理选择权。
另一方面,Babylon 提出了一种独特的方法,在不将 BTC 移出其原生链的情况下释放 BTC 持有者的潜在资产。通过优化比特币的脚本语言的使用和整合先进的加密机制,Babylon 为其他链的共识机制提供了更多安全性,其中一个特点是缩短了解锁期。在其他 POS 链上,持有 BTC 的验证者可以将其 BTC 锁定在比特币网络上,并使用 BTC 私钥签署 POS 区块。双重签名等无效行为会泄漏验证者的 BTC 私钥,并在比特币网络上销毁其 BTC。Babylon 第二个测试网将推出 BTC 质押功能。
虽然 Babylon 克服了比特币缺乏智能合约支持的限制,但 Eigenlayer 必须在图灵完备的以太坊平台上运行。Eigenlayer 不仅为新的 Rollup 和链提供了经济方面的安全性,而且它在以太坊上的环境也支持更多样化的 AVS。根据 Eigenlayer 关于可编程信任的文章,Eigenlayer 所能提供的安全性实际上可以进一步细分为 3 种类型:
-
经济信任:验证者做出承诺并以财务利益为支撑所带来的信任。这种信任模型确保了一致性,与涉及的参与方数量无关。这种情况下必须有可以在链上提交和验证的客观惩罚条件,而这往往会影响再质押者。
-
去中心化信任:由独立操作且地理位置隔离的运营商操作的去中心化网络所带来的信任。这一方面强调的是去中心化的内在价值,并实现一些无法客观证明的用例,因为去中心化增加了勾结的难度。利用去中心化信任所需的成本和复杂度往往都比较低。
-
以太坊包含信任:信任以太坊验证者会按照承诺,在运行共识软件的同时构建并包含你的区块。这可以由以太坊验证者(而不是 LST 再质押者)进行具体承诺。他们运行软件 sidecar 执行额外计算并获得额外奖励。
现在我们清楚了安全方面的信息,有什么是值得我们期待的呢?
-
ICS 和 Mesh Security 降低了对 neutron、stride 和 axelar 等 Cosmos 应用链的安全障碍。
-
Eigenlayer 可以适用于之前提到的许多解决方案:
Rollup 安全性:中继网络;监测方,排序,MEV 保护,EigenDA
Rollup 互操作性:Eigensettle;桥接
成本分析:证明者网络
更多内容等待探索,请查看 https://www.blog.eigenlayer.xyz/eigenlayer-universe-15-unicorn-ideas/
-
Babylon 正在运行测试网,以提高其他 POS 链的安全级别。它的第一个测试网提供时间戳服务,为 akash、osmosis、juno 等 cosmos 链的高价值 Defi 活动提升安全性。
这些共享安全解决方案背后的核心理念是通过引入额外的责任来增强质押或非流动资产的资本效率。然而,在追求更高收益的同时,也应对由此产生的风险保持警惕:
-
复杂程度提高会带来更多不确定性。验证者可能面临额外的惩罚条件,但这些条件可能没有足够的保护措施,这可能会带来风险。
Eigenlayer 提出的解决方案是设立一个否决委员会。该委员会作为质押者、运营者和 AVS 开发者之间相互信任的实体。在 AVS 内部存在软件漏洞的情况下,质押者和运营者不会面临处罚,因为否决委员会可以投下否决票。尽管这种方法本身可能并不可扩展,如果 AVS 没有严格按照基于不可信任归因行为的用例进行调整,那么就会存在主观性,但它仍可以作为在早期阶段启动风险缓解策略的重要手段。
-
复杂性提高也带来了额外负担。经验不足的验证者很难确定要与哪个服务共享安全性。此外,初始设置阶段可能伴随着更高的错误风险。还应该设置一些机制,允许“不那么精通技术”的验证者和质押者获得更高收益,而不受其运营能力的限制,前提是他们愿意接受相对较高的风险。
Rio Network 和 Renzo 都正在努力解决 Eigenlayer 面临的这一挑战,它们提供的是一种结构化的方法,谨慎地选择先进的节点运营者和 AVS 服务进行潜在的再质押,提高安全级别,并降低参与者的进入门槛。
此外,随着 Eigenlayer 的普及,它有望在安全金融化领域开辟新的前景。这可能有助于对共享安全以及基于共享安全创建的各种应用进行估值。
-
EigenLayer 所面临的一个限制在于,它无法通过在 DeFi 中为它所支持的相同资产 (LST) 竞争收益机会来扩展其系统的资本配置。EigenLayer 将安全的价值商品化,从而为许多原语提供了支持这种价值的能力,并使再质押者能够在更大的 DeFi 生态中进行重新质押和参与。
Ion Protocol 试图实现这一目标,以便扩大再质押的影响范围。Ion 正在构建一个价格不可知的借贷平台,该平台使用零知识基础设施来支持此类资产(零知识状态证明系统+ ZKML),以此避免此类资产中存在的低级别惩罚风险。EigenLayer 商品化了安全的基础价值,这可能是许多新型 DeFi 原语诞生的开端,进一步增强了再质押在整个生态中的扩展能力。
站在重大变革的风口上,我们必须拥抱安全、互操作性和成本效益的原则。这些支柱不仅将为更具规模和效率的区块链解决方案的开发指明道路,还将为建设一个更加互联、更易于访问的数字世界奠定基础。如果我们以远见卓识和适应能力拥抱这些变革,那么我们就一定能创造区块链生态的突破性进展。