Vana:讓你的數據在 AI 時代像代幣一樣自由流通創造價值

深潮TechFlow
2024-10-05 11:06:38
收藏
Vana 如何用「數據 DAO」和「貢獻證明」重構 AI 時代的數據價值鏈?

撰文:思維怪怪

你有沒有想過,為什麼像 Reddit、X(前 Twitter)這樣的社交媒體可以免費使用?答案其實就藏在你每天發的帖子、點的讚,甚至只是停留的時間裡。

曾經,這些平台將你的注意力作為商品賣給廣告商。如今,它們找到了一个更大的買家------AI 公司。據報導,僅僅是 Reddit 與 Google 的一項數據授權協議,就能為前者帶來每年 6000 萬美元的收入。而這筆巨額財富,卻與作為數據創造者的你我無關。

更令人不安的是,用我們的數據訓練出來的 AI,未來可能還會取代我們的工作。儘管 AI 也可能創造新的就業機會,但這種數據壟斷帶來的財富集中效應,無疑加劇了社會的不平等。我們似乎正在滑向一個由少數科技巨頭控制的賽博朋克世界。

那麼,作為普通人,我們該如何在這個 AI 時代保護自己的利益?AI 興起之後,很多人將區塊鏈視為人類抵抗 AI 的最後一道防線。正是基於這樣的思考,一些創新者開始探索解決方案。他們提出:首先,我們要奪回對自己數據的所有權和控制權;其次,我們要利用這些數據,共同訓練一個真正為普通人服務的 AI 模型。

這個想法看似理想主義,但歷史告訴我們,每一次技術革命都始於一個"瘋狂"的構想。而今天,一個名為"Vana"的全新公鏈項目正在將這個構想變為現實。作為首個去中心化數據流動性網絡,Vana 試圖讓你的數據轉化為可自由流通的代幣,並以此推動實現真正由用戶掌控的去中心化人工智能。

Vana 的創始人與項目源起

事實上,Vana 的誕生可以追溯到麻省理工學院(MIT)媒體實驗室的一間教室。在那裡,兩位懷揣改變世界理想的年輕人------Anna Kazlauskas 和 Art Abal------相遇了。

左:Anna Kazlauskas;右:Art Abal

Anna Kazlauskas 在 MIT 主修計算機科學和經濟學,她對數據和加密貨幣的興趣可以追溯到 2015 年。那時的她正在參與以太坊的早期挖礦,這段經歷讓她深刻認識到去中心化技術的潛力。隨後,Anna 在美聯儲、歐洲央行和世界銀行等國際金融機構進行數據研究,這些經歷讓她意識到在未來的世界裡,數據將成為一種新的貨幣形式。

與此同時,Art Abal 在哈佛大學攻讀公共政策碩士學位,並在貝爾福科學與國際事務中心深入研究數據影響評估。在加入 Vana 之前,Art 在 AI 訓練數據提供商 Appen 公司主導了創新的數據收集方法,這些方法為當今許多生成式 AI 工具的誕生做出了重要貢獻。他在數據倫理和 AI 責任方面的洞察,為 Vana 注入了強烈的社會責任感。

當 Anna 和 Art 在 MIT 媒體實驗室的課程中相遇時,他們很快發現彼此對數據民主化和用戶數據權益有著共同的熱忱。他們意識到,要真正解決數據所有權和 AI 公平性的问题,需要一個全新的範式------一個能夠讓用戶真正掌控自己數據的系統。

正是這種共同的願景,促使他們攜手創立了 Vana。他們的目標是打造一個革命性的平台,不僅要為用戶爭取數據主權,還要確保用戶能從自己的數據中獲得經濟利益。通過創新的 DLP(Data Liquidity Pool)機制和貢獻證明(Proof of Contribution)系統,Vana 讓用戶能夠安全地貢獻私有數據,共同擁有並受益於由這些數據訓練出的 AI 模型,從而推動用戶主導的 AI 發展。

Vana 的願景迅速得到了業界的認可。截止目前,Vana 宣布已經完成了總計 2500 萬美元的融資,其中包括由 Coinbase Ventures 领投的 500 萬美元戰略輪融資、Paradigm 领投的 1800 萬美元 A 輪融資,以及 Polychain 领投的 200 萬美元種子輪融資。其他知名投資者還包括 Casey Caruso、Packy McCormick、Manifold、GSR、DeFiance Capital 等。

在這個數據就是新時代石油的世界裡,Vana 的出現,無疑為我們提供了一個奪回數據主權的重要機會。那么,這個充滿潛力的項目究竟是如何運作的?讓我們一起深入了解 Vana 的技術架構和創新理念。

Vana 的技術架構和創新理念

Vana 的技術架構堪稱一個精心設計的生態系統,旨在實現數據的民主化和價值最大化。其核心組成部分包括數據流動性池(DLP)、貢獻證明機制、名古屋共識、用戶自托管數據以及去中心化應用層。這些元素共同構建了一個既能保護用戶隱私,又能釋放數據潛在價值的創新平台。

  1. 數據流動性池(DLP):數據價值化的基石

數據流動性池是 Vana 網絡的基本單位,可以將其理解為數據版的"流動性挖礦"。每個 DLP 本質上是一個智能合約,專門用於聚合特定類型的數據資產。例如,Reddit 數據 DAO(r/datadao)就是一個成功的 DLP 案例,吸引了超過 14 萬 Reddit 用戶加入。它聚合了用戶的 Reddit 帖子、評論和投票歷史。

用戶向 DLP 提交數據後,可以獲得該 DLP 特定的代幣獎勵,比如 Reddit 數據 DAO(r/datadao)的特定代幣就是 RDAT。這些代幣不僅代表了用戶對數據池的貢獻,還賦予了用戶對 DLP 的治理權和未來收益分配的權利。值得注意的是,Vana 允許每個 DLP 發行自己的代幣,這為不同類型的數據資產提供了更靈活的價值捕獲機制。

在 Vana 的生態系統中,排名前 16 的 DLP 還能獲得額外的 VANA 代幣排放獎勵,這進一步刺激了高質量數據池的形成和競爭。通過這種方式,Vana 巧妙地將零散的個人數據轉化為具有流動性的數字資產,為數據的價值化和流動性奠定了基礎。

  1. 貢獻證明(Proof of Contribution):數據價值的精確度量

貢獻證明是 Vana 確保數據質量的關鍵機制。每個 DLP 都可以根據自身特點,定制獨特的貢獻證明函數。這個函數不僅驗證數據的真實性和完整性,還評估數據對 AI 模型性能提升的貢獻度。

以 ChatGPT 數據 DAO 為例,其貢獻證明涵蓋了四個關鍵維度:真實性、所有權、質量和獨特性。真實性通過驗證 OpenAI 提供的數據導出鏈接來確保;所有權則通過用戶的郵箱驗證;質量評估則借助 LLM 對隨機抽樣的對話進行打分;獨特性則通過計算數據的特徵向量並與現有數據比對來確定。

這種多維度的評估確保了只有高質量、有價值的數據才能被接受並獲得獎勵。貢獻證明不僅是數據定價的基礎,也是維護整個生態系統數據質量的關鍵保障。

  1. 名古屋共識(Nagoya Consensus):去中心化的數據質量保證

名古屋共識是 Vana 網絡的心臟,它借鑒並改進了 Bittensor 的尤馬共識(Yuma Consensus)。這一機制的核心思想是通過一群驗證節點對數據質量進行集體評估,採用加權平均的方式得出最終分數。

更具創新性的是,驗證節點不僅要評估數據,還要對其他驗證節點的評分行為進行打分。這種"雙層評估"機制極大地提高了系統的公平性和準確性。例如,如果一個驗證節點給一份明顯低質量的數據打了高分,其他節點會對這一不當行為作出懲罰性評分。

每隔 1800 個區塊(約 3 小時)為一個周期,系統會根據這一期間的綜合評分,向驗證節點分配相應的獎勵。這種機制不僅激勵了驗證節點保持誠實,還能迅速識別和淘汰不良行為,從而維護整個網絡的健康運行。

  1. 非托管數據存儲:隱私保護的最後一道防線

Vana 的一大創新在於其獨特的數據管理方式。在 Vana 網絡中,用戶的原始數據從未真正"上鏈",而是由用戶自行選擇存儲位置,比如 Google Drive、Dropbox,乃至在 Macbook 上運行的個人伺服器。

當用戶向 DLP 提交數據時,他們實際上只是提供了指向加密數據的 URL 和一個可選的內容完整性哈希。這些信息被記錄在 Vana 的數據註冊合約中。驗證者在需要訪問數據時,會請求解密密鑰,然後下載並解密數據進行驗證。

這種設計巧妙地解決了數據隱私和控制權的問題。用戶始終保持對自己數據的完全控制,同時又能參與到數據經濟中。這不僅確保了數據的安全性,還為未來更廣泛的數據應用場景提供了可能。

  1. 去中心化應用層:數據價值的多元化實現

Vana 的頂層是一個開放的應用生態系統。在這裡,開發者可以利用 DLP 積累的數據流動性構建各種創新應用,而數據貢獻者則可以從這些應用中獲得實際的經濟價值。

例如,一個開發團隊可能會基於 Reddit 數據 DAO 的數據訓練一個專門的 AI 模型。參與數據貢獻的用戶不僅可以在模型訓練完成後使用它,還可以按照各自的貢獻比例獲得模型產生的收益。實際上這樣的 AI 模型已經開發出來了,詳情可閱讀《觸底反彈,AI 賽道老幣 r/datadao 為何起死回生?》。

這種模式不僅激勵了更多高質量數據的貢獻,還創造了一個真正由用戶主導的 AI 開發生態系統。用戶從單純的數據提供者,轉變為 AI 產品的共同所有者和受益者。

通過這種方式,Vana 正在重塑數據經濟的格局。在這個新的範式中,用戶從被動的數據提供者轉變為積極參與、共同受益的生態系統建設者。這不僅為個人創造了新的價值獲取渠道,也為整個 AI 行業注入了新的活力和創新動力。

Vana 的技術架構不僅解決了當前數據經濟中的核心問題,如數據所有權、隱私保護和價值分配,還為未來的數據驅動創新鋪平了道路。隨著更多的數據 DAO 加入網絡,更多的應用在平台上構建,Vana 有潛力成為下一代去中心化 AI 和數據經濟的基礎設施。

Satori 測試網:Vana 的公開測試場

隨著 Satori 測試網於 6 月 11 日的推出,Vana 向公眾展示了其生態系統的雛形。這不僅是技術驗證的平台,更是未來主網運行模式的預演。目前,Vana 生態為參與者提供了三條主要路徑:運行 DLP 驗證節點、創建新的 DLP,或者向現有 DLP 提交數據參與"數據挖礦"。

  1. 運行 DLP 驗證節點

驗證節點是 Vana 網絡的守門人,負責驗證提交到 DLP 的數據質量。運行驗證節點不僅需要技術能力,還需要足夠的計算資源。根據 Vana 的技術文檔,驗證節點的最低硬件要求為 1 個 CPU 核心、8GB RAM 和 10GB 高速 SSD 存儲空間。

有意成為驗證者的用戶需要先選擇一個 DLP,然後通過該 DLP 的智能合約註冊成為驗證者。一旦註冊獲得批准,驗證者就可以運行特定於該 DLP 的驗證節點。值得注意的是,驗證者可以同時為多個 DLP 運行節點,但每個 DLP 都有其獨特的最低質押要求。

  1. 創建新的 DLP

對於那些有獨特數據資源或創新想法的用戶,創建新的 DLP 是一個極具吸引力的選擇。創建 DLP 需要深入理解 Vana 的技術架構,特別是貢獻證明和名古屋共識機制。

新 DLP 的創建者需要設計特定的數據貢獻目標、驗證方法和獎勵參數。同時,他們還需要實現一個能準確評估數據價值的貢獻證明函數。這個過程雖然複雜,但 Vana 提供了詳細的模板和文檔支持。

  1. 參與數據挖礦

對於大多數用戶來說,向現有 DLP 提交數據參與"數據挖礦"可能是最直接的參與方式。目前,已經有 13 個 DLP 得到了官方推薦,涵蓋了從社交媒體數據到金融預測數據的多個領域。

  • Finquarium:匯集金融預測數據。

  • GPT Data DAO:專注於 ChatGPT 聊天數據導出。

  • Reddit Data DAO:聚焦 Reddit 用戶數據,已正式啟動。

  • Volara:專注於 Twitter 數據的收集和利用。

  • Flirtual:收集約會數據。

  • ResumeDataDAO:專注於 LinkedIn 數據導出。

  • SixGPT:收集和管理 LLM 聊天數據。

  • YKYR:收集 Google Analytics 數據。

  • Sydintel:通過眾包智能揭示互聯網的黑暗角落。

  • MindDAO:收集用戶幸福感相關的時間序列數據。

  • Kleo:構建全球最全面的瀏覽歷史數據集。

  • DataPIG:關注代幣投資偏好數據。

  • ScrollDAO:收集和利用 Instagram 數據。

這些 DLP 有的還在開發,有的已經上線,但是都處於預挖礦階段。因為只有等主網上線之後,用戶才能正式提交數據進行挖礦。不過,用戶現在可以通過多種方式提前鎖定參與資格。例如,用戶可以參與 Vana Telegram App 中的相關挑戰活動,或者在各個 DLP 的官方網站上進行預註冊。

總結

Vana 的出現,標誌著數據經濟正在迎來一場範式轉變。在當前 AI 浪潮中,數據已然成為新時代的"石油",而 Vana 則試圖重塑這一資源的開採、精煉和分配模式。

本質上,Vana 正在構建一個數據版的"公地悲劇"解決方案。通過巧妙的激勵設計和技術創新,它使得個人數據這一看似無限供給卻難以變現的資源,轉變為一種可管理、可定價、可流通的數字資產。這不僅為普通用戶參與 AI 紅利分配開闢了新途徑,更為去中心化 AI 的發展提供了一個可能的藍圖。

然而,Vana 的成功仍面臨諸多不確定性。技術上,它需要在開放性和安全性之間尋找平衡;經濟上,它需要證明其模式能夠產生持續的價值;社會層面,它還需應對潛在的數據倫理和監管挑戰。

更深層次來看,Vana 代表了一種對現有數據壟斷和 AI 發展模式的反思與挑戰。它提出了一個重要問題:在 AI 時代,我們是選擇繼續強化現有的數據寡頭,還是嘗試構建一個更加開放、公平、多元的數據生態?

無論 Vana 最終能否成功,它的出現都為我們提供了一個重新思考數據價值、AI 倫理和技術創新的窗口。在未來,類似 Vana 這樣的項目或許會成為連接 Web3 理想與 AI 現實的重要橋樑,為數字經濟的下一階段發展指明方向。

鏈捕手ChainCatcher提醒,請廣大讀者理性看待區塊鏈,切實提高風險意識,警惕各類虛擬代幣發行與炒作,站內所有內容僅係市場信息或相關方觀點,不構成任何形式投資建議。如發現站內內容含敏感信息,可點擊“舉報”,我們會及時處理。
ChainCatcher 與創新者共建Web3世界