解讀 MegaETH 白皮書:基建永不眠,Vitalik 參投的巨額融資 L2 有何過人之處?
作者:深潮 TechFlow
基建永不眠,鏈比應用多。
當市場被各種天王項目空投的PUA折磨的叫苦不迭時,一级市場還在"造天王"的路上狂奔。
昨天夜裡,另一個陣容炸裂的L1橫空出世 --- MegaETH,種子輪融資 2000 萬美元,Dragonfly 領投,Figment Capital、Robot Ventures 和 Big Brain Holdings 等機構參投,天使投資人包括 Vitalik、Cobie、Joseph Lubin、Sreeram Kannan、Kartik Talwar 等。
頂級VC領投、Vitalik 等圈內大神們充當天使投資人、項目名字直接帶上了ETH… 注意力有限的加密市場裡,這些標籤無不在給項目找"正統性"。
從官方項目描述來看,MegaETH 還是能用一個熟悉的字就能概括---快。
首個實時區塊鏈(Real-Time Blockchain)、以閃電般的速度傳輸交易、亞毫秒級延遲和每秒超過 100,000 筆交易…
在市場所有參與者都對公鏈性能敘事審美疲勞的現在,MegaETH 靠什麼突出重圍?
我們扒了扒 MegaETH 的白皮書,試圖找到答案。
鏈很多,但都無法做到"實時化"
假設除開敘事和炒作,為什麼市場上還需要一個叫MegaETH的區塊鏈?
MegaETH 自己給出的答案是,簡單地創建更多鏈並不能解決區塊鏈可擴展性問題,現在的L1/L2們面臨著共性問題:
所有 EVM 鏈都表現出較低的交易吞吐量;
其次,由於計算能力稀缺,複雜的應用程序無法上鏈;
最後,需要高更新率或快速反饋循環的應用程序在較長的出塊時間內是不可行的。
也就是說,現行所有的區塊鏈其實無法做到:
實時結算:交易在到達區塊鏈時立即被處理並且結果幾乎即時發布。
實時處理:區塊鏈系統能夠在極短的時間內處理和驗證大量的交易。
這種實時化,落到實際應用場景裡是什麼東西?
比如高頻交易,需要能夠在毫秒內完成訂單的下單和取消操作。又或者是實時戰鬥或物理仿真的遊戲,需要區塊鏈能夠以極高的頻率更新狀態。很顯然現在的鏈都做不到。
節點專業化,性能實時化
那麼,要做到上述的"實時化", MegaETH 的大概思路是啥?太長不看版就是:
節點專業化 :通過分離交易執行任務和完整節點的職責,減少共識開銷。
如果要具體一點,可以看到MegaETH 中有三個主要角色:排序器、證明者和全節點。
具體來說,MegaETH 中只有一個活躍的排序節點(sequencer)在任意時間執行交易,其它節點通過p2p網絡接收狀態差異並更新本地狀態,而無需重新執行交易。
排序器負責對用戶交易進行排序和執行。但是,MegaETH 在任何給定時間都只有一個活躍的排序器,從而消除了正常執行期間的共識開銷。
證明者使用 無狀態驗證方案,以異步和無序的方式驗證區塊。
一個MegaETH簡易的工作流程如下:
交易處理和排序:用戶提交的交易首先被發送到Sequencer(排序器),排序器按順序處理這些交易,生成新的區塊和見證數據。
數據發布:排序器將生成的區塊、見證數據和狀態差異發布到EigenDA(數據可用性層),確保這些數據在網絡中可用。
區塊驗證:Prover Network(證明網絡)從排序器獲取區塊和見證數據,通過專用硬件進行驗證,生成證明並返回給排序器。
狀態更新:Fullnode Network(全節點網絡)從排序器接收狀態差異,更新本地狀態,同時可以通過證明網絡驗證區塊的有效性,確保區塊鏈的一致性和安全性。
先測量,再執行
從白皮書其他內容看,MegaETH 自己也意識到了,這個"節點專業化"的思路不錯,但不意味著能夠非常簡單的將思路付諸於實踐。
在具體做鏈時,MegaETH 有個思路其實不錯:先測量,再執行。即先進行深入的性能測量,以確定現有區塊鏈系統的真正問題,再來看怎麼把這個節點專業化的思路放到現行系統中解決問題。
那麼,MegaETH 測出了哪些問題?
下面這部分其實都離韭菜們比較遠,沒有耐心的話可以直接翻到下一章節。
交易執行:他們的實驗顯示,即使使用配備512GB內存的強大伺服器,現有的以太坊執行客戶端Reth在實時同步設置中也只能達到約1000 TPS(每秒交易數),這表明現有系統在執行交易和更新存在顯著的性能瓶頸。
並行 執行:來到大熱的並行EVM概念,其實也有一些性能問題沒解決。並行EVM實際生產中的加速效果受到工作負載並行度的限制。MegaETH的測量顯示,最近的以太坊區塊中,中位數並行度小於2,即使將多個區塊合併,中位數並行度也僅增加到2.75。
(並行度小於2表示在大多數情況下,每個區塊中只有不到兩個交易可以同時執行。這表明當前區塊鏈系統中的交易大多是相互依賴的,無法進行大規模的並行處理。)
解釋器 開銷:即使是較快的EVM解釋器,如revm,其速度仍比本地執行慢1-2個數量級。
狀態同步:同步每秒10萬次ERC-20轉帳,需要消耗152.6 Mbps的帶寬,而更複雜的交易則需要更多的帶寬。更新狀態根在Reth中比執行交易要耗費多10倍的計算資源。說人話就是現在的區塊鏈資源消耗有點大。
測完這些問題後,MegaETH 才開始對症下藥,也就更能理順上文所說的解決方案邏輯:
- 高性能排序器:
節點專門化:MegaETH通過將任務分配給專門的節點來提高效率。排序器節點專門處理交易排序和執行,全節點負責狀態更新和驗證,證明節點使用專用硬件驗證區塊。
高端硬件:排序器使用高性能伺服器(如100核心,1TB內存,10Gbps網絡)來處理大量交易和快速生成區塊。
- 狀態訪問優化:
內存 存儲:排序器節點配備大量RAM,能夠將整個區塊鏈狀態存儲在內存中,從而消除SSD讀取延遲,加快狀態訪問速度。
並行 執行:儘管並行EVM在現有工作負載中的加速效果有限,MegaETH通過優化並行執行引擎,並支持交易優先級管理,確保關鍵交易在高峰時期也能及時處理。
- 解釋器 優化:
AOT / JIT 編譯:MegaETH通過引入AOT/JIT編譯技術,加速計算密集型合約的執行,即使在生產環境中大多數合約的性能提升有限,但對於特定的高計算需求場景,這些技術仍能顯著提升性能。
- 狀態同步優化:
高效數據傳輸:MegaETH設計了一種高效的狀態差異編碼和傳輸方法,能夠在帶寬有限的情況下同步大量狀態更新。
壓縮技術:通過採用高級壓縮技術,MegaETH能夠在帶寬限制內同步複雜交易(如Uniswap交換)的狀態更新。
- 狀態根更新優化:
優化的MPT設計:MegaETH採用優化的Merkle Patricia Trie(如NOMT),減少讀寫操作,提高狀態根更新的效率。
批處理 技術:通過批量處理狀態更新,MegaETH能夠減少隨機磁碟IO操作,提高整體性能。
上面的東西其實都很技術,但是跳出這些技術細節,實際上你可以看到 MegaETH 是真正在技術上有幾把刷子的,也能明顯感覺到一個動機:
通過公開詳細的技術數據和測試結果,試圖增強項目的 透明度 和可信度,讓技術社區和潛在用戶對其系統的性能有更深刻的理解和信任。
名校團隊,屢受青睞?
在解讀白皮書的過程中,可以明顯感覺到雖然 MegaETH 在名字上有點浮誇,但文檔和說明又時常透露出一種技術Nerd的嚴謹和過於細節化。
公開資料顯示,MegaETH 的團隊似乎有華人背景,且 CEO Li Yilong 來自斯坦福,是計算機科學方向的博士;而CTO Yang Lei 則是麻省理工的博士,CBO(商務官)Kong Shuyao 則是哈佛商學院的MBA出身,有多個圈內機構的工作經驗(ConsenSys等);增長負責人則與CBO某些履歷重疊,且也來自於名校紐約大學。
一個團隊,4個人全部來自美國頂級名校,人脈和資源上的影響力不言而喻。
之前,我們也在《畢業生當 CEO,Pantera 領投 2500 萬的 Nexus 是何來頭 》一文中介紹到,Nexus的CEO雖然是應届畢業生,但同樣出名校自斯坦福,且看上去也有扎實的技術背景。
頂級VC果然更偏愛頂校技術大佬們,再加上 Vitalik 也參投和名字上帶了ETH,技術敘事和營銷效果可能都會拉滿。
在當前老"天王"變"天亡",項目青黃不接、行情不上不下的現在,MegaETH 顯然還會帶來新一輪FOMO效應。
更多關於項目測試網和交互的信息,我們也會持續保持關注。