近一年來,AI 敘事在Crypto 市場發展火熱,a16z、紅杉、Lightspeed、Polychain 等領先的VC 大筆一揮,千萬美元下注。許多科學研究背景、名校背景的高素質團隊也進入了Web3,朝著著去中心化AI 的方向邁進。未來12 個月內,我們將見證這些優質項目逐漸落地。
今年10 月,OpenAI 再次融資66 億美元,AI 賽道的軍備競賽來到了一個史無前例的高度。散戶很少有機會在直接投資英偉達和硬體以外賺錢,這股熱情勢必會持續蔓延到Crypto 中,特別是近期由AI Meme 帶動的全民抓狗潮。可以預見的是,Crypto x AI,不論是現有上市代幣,還是新晉明星項目,勢頭仍會強勁。
隨著去中心化AI 頭部項目Hyperbolic 近日獲得Polychain 和Lightspeed 的二次加碼,我們從近期獲得頭部機構大額融資的6 個項目出發,梳理Crypto x AI 基建項目的發展脈絡,展望去中心化科技可以如何為人類在AI 的未來保駕護航。
Hyperbolic:近日宣布完成由Variant 和Polychain 共同領投的1200 萬美元A 輪融資,總融資額超過2000 萬美元,Bankless Ventures、Chapter One、Lightspeed Faction、IOSG、Blockchain Builders Fund、Alumni Ventures、Samsung Next 等知名VC 參投。
PIN AI:完成1,000 萬美元pre-seed 輪融資,a16z CSX、Hack VC、Blockchain Builders Fund(史丹佛區塊鏈加速器)等一眾知名VC 投資。
Vana:完成1,800 萬美元的A 輪融資和500 萬美元的策略性融資,Paradigm、Polychain、Coinbase 等知名VC 投資。
Sahara:完成4,300 萬美元A 輪融資,Binance Labs、Pantera Capital、Polychain 等知名VC 投資。
Aethir:2023 年以1.5 億美元估值完成900 萬美元的Pre-A 輪融資,並在2024 年完成約1.2 億美元的節點銷售。
IO.NET:完成3,000 萬美元的A 輪融資,Hack VC、Delphi Digital、Foresight Ventures 等知名VC 投資。
AI 的三要素:數據、算力與演算法
馬克思在《資本論》中告訴我們,生產資料、生產力和生產關係是社會生產的關鍵要素。如果我們做一次類比,就會發現在人工智慧世界中,也有這樣的關鍵三要素。
在AI 時代,算力、數據和演算法是關鍵。
在AI 中,數據即生產資料。例如,你每天在手機上打字聊天、拍照髮朋友圈,這些文字和圖片都是數據,它們就像是AI 的“食材”,是AI 得以運作的基礎。
這些數據包括從結構化的數值資訊到非結構化的圖像、音訊、視訊和文字等多種形式。沒有數據,AI 演算法就無法學習和最佳化。數據的品質、數量、覆蓋範圍和多樣性直接影響到AI 模型的表現,決定了它能否有效地完成特定任務。
在AI 中,算力即生產力。算力是執行AI 演算法所需的底層計算資源。算力越強,處理資料的速度就越快、效果越好。算力的強弱直接決定了AI 系統的效率和能力。
強大的算力不僅能夠縮短模型的訓練時間,還可以支援更複雜的模型架構,進而提升AI 的智慧等級。像OpenAI 的ChatGPT 這樣的大語言模型,需要數月時間在強大的計算集群上進行訓練。
在AI 中,演算法即生產關係。演算法是AI 的核心,其設計決定了數據和算力如何協同工作,是將數據轉化為智慧決策的關鍵。在強大算力的支持下,演算法能夠更好地學習資料中的模式,並應用於實際問題中。
如此看來,數據就相當於AI 的燃料,算力是AI 的引擎,而演算法則是AI 的靈魂。 AI=數據+算力+演算法,任何想要在AI 賽道中脫穎而出的新創公司,這三要素必須齊全,或在其中一項中展現出獨特的領先優勢。
隨著AI 正在朝向多模態(模型基於多種資訊形式,能夠同時處理文字、圖像和音訊等)發展,對算力和資料的需求只會呈指數級增長。
算力稀缺時代,Crypto 賦能AI
ChatGPT 的橫空出世,不僅掀起了一場人工智慧的革命,也無意中將算力和算力硬體推向了科技熱搜的風口浪尖。
歷經2023 年的“千模大戰”,2024 年,隨著市場對於AI 大模型認知的不斷加深,圍繞大模型的全球競爭正在被劃分為“能力提升”與“場景開發”兩條路。
在大模型能力提升方面,市場最大的期待莫過於被傳OpenAI 將於今年發布的GPT-5,翹首以盼其大模型被推到一個真正多模態的階段。
在大模型場景開發方面,AI 巨頭們都在推動大模型更快融入產業場景,產生應用程式落地價值。例如,AI Agent、AI 搜尋等領域的嘗試,都是在不斷深化大模型對現有使用者體驗的提升。
這兩條路背後,無疑都對算力提出了更高的需求。大模型能力提升以訓練為主,需要短時間內調用龐大的高性能算力;大模型場景應用則以推理為主,對算力的性能要求相對不算高,但更注重穩定性和低延時。
正如OpenAI 曾在2018 年所做的估算,自2012 年以來,訓練大模型的算力需求每3.5 個月會翻倍,每年所需算力增幅高達10 倍。同時隨著大模型及應用越來越多部署到企業實際業務場景中,推理算力需求也水漲船高。
問題來了,全球對高性能GPU 的需求正在迅速增長,而供給卻未能跟上。以英偉達的H100 晶片為例,在2023 年經歷了嚴重的供應短缺問題,其供給缺口超過43 萬顆。即將推出的效能提高2.5 倍、成本僅增加25% 的B100 晶片,很有可能再次出現供應短缺。這種供需失衡會導致算力成本的再次上升,使得許多中小型企業難以承擔高昂的計算費用,從而限制他們在AI 領域的發展潛力。
大型科技公司如OpenAI、Google 和Meta 擁有更強大的資源取得能力,有錢有資源建造自家的算力基礎設施。但對於AI 新創公司,更別說是尚未融資的呢?
的確在eBay、亞馬遜等平台上購買二手GPU 也是可行方法之一。雖然降低了成本,但可能有效能問題和長期維修費用。在這個GPU 稀缺的時代,建構基礎設施對於新創公司恐怕永遠不會是最優解。
即便已經有了可按需租賃的GPU 雲端供應商,但高昂的價格對於它們來說也是一個不小的挑戰,例如,一張英偉達A100 的價格約每天80 美元,如果需要50 張每月運行25天,只在算力方面的成本就高達80 x 50 x 25=10 萬美元/月。
這給了以DePIN 為架構的去中心化算力網路趁虛而入的機會,可以說是順風順水。正如IO.NET、Aethir、Hyperbolic 所做的,它們將AI 新創公司的算力基礎設施成本轉移到網路本身。而且可以讓全球任何人將家中未使用的GPU 連接至其中,大幅降低了運算成本。
Aethir:全球GPU 共享網絡,讓算力普惠化
Aethir 在2023 年9 月以1.5 億美元估值完成900 萬美元的Pre-A 輪融資,並在今年3-5 月完成約1.2 億美元的Checker Node 節點銷售。 Aethir 在短短30 分鐘內透過銷售Checker Node 獲得了6,000 萬美元的收益,可見市場對該專案的認可和期待。
Aethir 的核心,是建立一個去中心化的GPU 網絡,讓每個人都有機會貢獻自己的閒置GPU 資源,並獲得收益。這就像是把每個人的電腦變成一個小型的超級計算機,大家一起共享運算能力。這樣做的好處是,可以大幅提高GPU 的使用率,減少資源浪費,同時也能讓需要大量運算能力的企業或個人,以更低的成本取得所需的資源
Aethir 創建了一個去中心化的DePIN 網絡,就像資源池一般,激勵來自全球各地的資料中心、遊戲工作室、科技公司和遊戲玩家將閒置GPU 連至其中。這些GPU 提供者可以自由地將GPU 連接或退出網絡,因此具有比閒置更高的利用率。這使得Aethir 能夠向算力需求方提供從消費者級、專業級到資料中心級的GPU 資源,而且相比Web2 雲端供應商的價格要低80% 以上。
Aethir 的DePIN 架構確保了這些零散算力的品質和穩定性。其中最核心的三個部分是:
Container(容器)是Aethir 的運算單元,可作為雲端伺服器,負責執行和渲染應用程式。每個任務都被封裝在一個獨立的Container 中,作為相對隔離的環境來運行客戶的任務,避免了任務間互相干擾的情況。
Indexer(索引器)主要用於根據任務需求即時匹配和調度可用的算力資源。同時,動態資源調整機制能夠根據整個網路的負載情況,動態將資源分配給不同的任務,以達到最佳整體效能。
Checker(檢查器)則負責即時監控和評估Container 的效能,它可以即時監控和評估整個網路的狀態,並對可能出現的安全問題做出及時的反應。如需應對網路攻擊等安全事件,在偵測到異常行為後,能夠及時發出警告並啟動防護措施。同樣的,當網路效能出現瓶頸時,Checker也可以及時發出提醒,以便問題能夠及時解決,確保了服務品質和安全。
Container、Indexer、Checker 三者之間有效協作,為客戶提供了自由客製化算力配置,安全、穩定且價格相對低廉的雲端服務體驗。對於AI 和遊戲等領域,Aethir 是一個不錯的商業級解決方案。
總的來說,Aethir 透過DePIN 的方式,重塑了GPU 資源的分配和使用,讓算力更普及、更經濟。它已在AI 和遊戲領域取得了一些不錯的成績,而且還在不斷擴展合作夥伴和業務線,未來的發展潛力不可限量。
IO.NET:打破算力瓶頸的分散式超級運算網絡
IO.NET 今年3 月完成了3000 萬美元的A 輪融資,Hack VC、Delphi Digital、Foresight Ventures 等知名VC 投資。
與Aethir 類似,打造企業級的去中心化運算網絡,透過匯聚全球閒散的運算資源(GPU、CPU),為AI 新創公司提供價格更低、更容易取得、更靈活適配的算力服務。
有別於Aethir 的是,IO.NET 利用Ray 框架(IO-SDK)將數千個GPU 叢集轉換為一個整體,服務於機器學習(Ray 框架也被OpenAI 用於訓練GPT-3)。在單一裝置上訓練大模型時,CPU/GPU 記憶體限制和順序處理工作流程呈現了巨大的瓶頸。利用Ray 框架來編排和批次處理,實現了算力任務並行化。
為此,IO.NET 採用多層架構:
使用者介面層:提供使用者視覺前端介面,包括公共網站、客戶區域及GPU供應商區域,旨在提供直覺且友善的使用者體驗。
安全層:確保系統的完整性與安全,整合了網路防護、使用者認證及活動日誌記錄等機制。
API 層:作為網站、供應商及內部管理的通訊樞紐,方便資料交換及各類操作的執行。
後端層:構成系統核心,負責管理叢集/GPU、客戶互動及自動擴展等營運任務。
資料庫層:負責資料的儲存和管理,主儲存負責結構化數據,而快取則用於臨時資料的處理。
任務層:管理非同步通訊和任務執行,確保資料處理和流轉的高效性。
基礎設施層:構成系統基礎,包含GPU 資源池、編排工具及執行/ML 任務,配備了強大的監控解決方案。
從技術上來看,IO.NET 為解決分散式算力面臨的困難點,推出了其核心技術IO-SDK 的分層架構,以及解決安全連線和資料隱私問題的反向隧道技術和網狀VPN 架構。在Web3 受到熱捧,稱為下一個Filecoin,前景較為廣闊。
總的來說,IO.NET 的核心使命是打造全球最大的DePIN 基礎設施,把全世界的閒置GPU 資源都集中起來,向需要大量算力的AI 和機器學習領域提供支援。
Hyperbolic:打造“AI 雨林”,實現繁榮互助的分散式AI 基建生態
今天,Hyperbolic 再次宣布完成了總額超過1200 萬美元的A 輪融資,由Variant 和Polychain Capital 共同領投,總融資額超過2000萬美元。 Bankless Ventures、Chapter One、Lightspeed Faction、IOSG、Blockchain Builders Fund、Alumni Ventures、Samsung Next 等知名VC機構參投。其中頭部矽谷風投Polychain 和LightSpeed Faction 在種子輪後二度加碼,足以說明Hyperbolic 在Web3 AI 賽道的龍頭地位。
Hyperbolic 的核心使命是讓AI 變得人人可用,開發者做的起,創作者用的起。 Hyperbolic 旨在建立一個“AI 雨林”,在其生態系統中,開發者可以找到創新、協作和發展所需的必要資源。就像天然雨林一樣,生態間相互連結、生機勃勃、可再生,讓創作者能夠無限制地探索。
在兩位共同創辦人Jasper 和Yuchen 看來,雖然AI 模型可以開源,但如果沒有開放的運算資源,那還是不夠的。目前很多大型資料中心控制著GPU 資源,這讓許多想要用AI 的人望而卻步。 Hyperbolic 就是要打破這個局面,他們透過整合全球的閒置運算資源建立DePIN 算力基礎設施,讓每個人都能輕鬆使用AI。
因此,Hyperbolic 引入了「開放式AI 雲端」概念,小到個人電腦,大到資料中心,都可以連接到Hyperbolic 提供算力。在此基礎上,Hyperbolic 創建了一個可驗證、確保隱私的AI 層,讓開發者可以建立有推理能力的AI 應用,而所需算力則直接來自AI 雲端。
與Aethir、IO.NET 類似,Hyperbolic 的AI 雲擁有自己獨特的GPU 集群模型,被稱為「太陽系集群」。正如我們所知的那樣,太陽系包含了水星、火星等各種獨立行星,Hyperbolic 的太陽系集群掌管例如水星集群、火星集群、木星集群,這些GPU 集群用途廣泛,規模各異,但又相互獨立,由太陽系調度。
這樣的模型確保了GPU 叢集滿足了兩個特性,相比Aethir、IO.NET 更靈活且效率最大化:
調節狀態平衡,GPU 集群會根據需求自動擴大或縮小
若某個集群發生中斷,太陽系集群將自動偵測並修復
在大型語言模型(LLM)的效能比較實驗中,Hyperbolic GPU 叢集的吞吐量高達43 tokens/s,這項成績不僅超過了由60 人組成的Together AI 團隊的42 tokens/s,更是明顯高於擁有300 多名團隊成員的HuggingFace 的27 tokens/s。
而在影像生成模型的生成速度比較實驗中,Hyperbolic GPU 叢集同樣展現了其技術實力不容小覷。同樣是使用SOTA 開源圖像生成模型,Hyperbolic 以17.6 images/min 的生成速度領先,不僅超過了Together AI 的13.6 images/min,更是遠高於IO.NET 的6.5 images/min。
這些數據有力地證明了Hyperbolic 的GPU 叢集車型擁有極高的效率,卓越的效能表現使其在規模更大的競爭對手中脫穎而出。結合價格低廉的優勢,這使得Hyperbolic 非常適合需要高算力提供支援的複雜AI 應用,提供近乎即時的回應,並確保AI 模型在處理複雜任務時具有更高的準確性和效率。
另外,從加密創新的角度,我們認為Hyperbolic 最應關注的成績是開發了驗證機制PoSP(Proof of Sampling,抽樣證明),以去中心化的方法解決AI 領域最棘手的挑戰之一— 驗證輸出是否來自指定的模型,從而使推理過程可以經濟有效地去中心化。
基於PoSP 原理,Hyperbolic 團隊開發了針對AI 應用的spML機制(抽樣機器學習),對網路中的交易隨機抽樣,獎勵誠實者,處罰不誠實者,來達到一種輕量級的驗證效果,減輕了網路的運算負擔,使得幾乎任何AI 新創公司都可以將他們的AI 服務以可分散驗證的範式完成去中心化。
具體實現流程如下:
1)節點計算了函數,透過加密的方式將結果提交給編排者。
2) 然後,由編排者決定是否信任此結果,如果信任,則節點因計算而獲得獎勵。
3) 如果不信任,編排者會隨機選擇網路中的驗證者,對節點發起挑戰,計算同樣的函數。同樣的,驗證者透過加密的方式將結果提交給編排者。
4) 最後,編排者檢查所有的結果是否一致,如果一致,節點和驗證者都會獲得獎勵;如果不一致,將會發起仲裁程序,對每個結果的計算過程做追溯。誠實者因其準確性獲得獎勵,不誠實者因欺騙系統而被處罰。
節點不知道他們提交的結果是否會被挑戰,也不知道編排者會選擇哪個驗證者來挑戰,有次來確保驗證的公正性。作弊成本遠超過潛在的收益。
如果未來spML 得到檢驗,那麼足以改變AI 應用的遊戲規則,使無需信任的推理驗證成為現實。此外,Hyperbolic 擁有業界獨一無二的將BF16 演算法運用在模型推理中的能力(同業者都還停留在FP8),能有效提升推理的準確度,使得Hyperbolic 的去中心化推理服務性價比卓越超群。
此外,Hyperbolic 的創新也體現在其將AI 雲的算力供給與AI 應用整合。去中心化算力市場的需求本身較為稀少,Hyperbolic 透過建構可驗證的AI 基礎設施來吸引開發者建立AI 應用,算力可以在不犧牲性能和安全性的情況下直接無縫整合至AI 應用,擴展到一定規模後能做到自給自足,達到供需平衡。
開發者可在Hyperbolic 上建立圍繞算力、Web2 及Web3 的AI 創新應用,例如:
GPU Exchange,建立在GPU 網路(編排層)之上的GPU 交易平台,將「GPU 資源」商品化自由交易,使算力更具成本效益。
IAO,或將AI Agent 代幣化,允許貢獻者賺取代幣,AI Agent 的收入將分配給代幣持有者。
AI 驅動的DAO,即透過人工智慧幫助治理決策和財務管理的DAO。
GPU Restaking,讓使用者將GPU 連接到Hyperbolic 後,再質押到AI 應用。
總的來說,Hyperbolic 建立了一個開放的AI 生態系統,讓每個人都能輕鬆使用AI。透過技術創新,Hyperbolic 正在讓AI 變得更加普及和可訪問,讓AI 的未來充滿互通性和相容性,鼓勵合作創新。
數據回歸用戶,共赴AI 波
現今,數據就是金礦,個人資料正被科技巨頭無償攫取和商業化。
數據是AI 的食糧。沒有高品質的數據,即使是最先進的演算法也無法發揮其作用。資料的數量、品質和多樣性直接影響到AI 模型的效能。
前面我們提到過,業界正在期待GPT-5 的推出。但是它遲遲沒出來,原因可能是數據量尚未足夠。光是發表論文階段的GPT-3,就需要2 兆Token 的資料量。 GPT-5 預計會達到200 兆Token 的數據量。除了現有的文字數據,還要更多的多模態數據,加以清洗後才能夠被用於訓練。
在今天的公開網路數據中,高品質的數據樣本是偏少的,一個現實的情況是,大模型在任意領域的問答生成表現都非常好,但面對專業領域問題的表現不佳,甚至會出現模型「一本正經地胡說八道」的幻覺。
為了確保數據的“新鮮程度”,AI 巨頭經常與大型數據源的所有者達成交易協議。例如,OpenAI 與Reddit 簽署了一項價值6000 萬美元的協議。
近期一些社群軟體開始要求用戶簽署協議,需要用戶同意將內容授權用於第三方AI 模型的訓練,然而,用戶卻沒有從中獲得任何回報。這種掠奪行為引發輿論對數據使用權的質疑。
顯然,區塊鏈去中心化且可追溯來源的潛力天然適合改善數據和資源的獲取窘境,同時為用戶數據提供更多控制權和透明度,還可以透過參與AI 模型的訓練和優化來獲得收益。這種全新的數據價值創造方式將大幅提升用戶參與度,並推動生態整體繁榮。
Web3 已經有了一些針對AI 資料的公司,例如:
資料取得:Ocean Protocol、Vana、PIN AI、Sahara 等
資料處理:Public AI、Lightworks 等
其中比較有趣的是Vana、PIN AI、Saraha,剛好也都在近期內獲得了大額融資,投資人陣容豪華。這兩個項目都跳出了子領域,將數據獲取與AI 開發相結合,推動AI 應用的落地。
Vana:使用者掌控數據,DAO 與貢獻機制重塑AI 數據經濟
Vana 在2022 年12 月完成了一輪1,800 萬美元的融資,並在今年9 月完成了500 萬美元的策略性融資。 Paradigm、Polychain、Coinbase 等知名VC 投資。
Vana 的核心理念是「使用者擁有的數據,實現使用者擁有的AI」 。在這個數據為王的時代,Vana 想要打破大公司對數據的壟斷,讓用戶自己掌控自己的數據,並且從自己的數據中獲益。
Vana 是一個去中心化數據網絡,專注於保護私人數據,使用戶的數據能夠像金融資產一樣靈活地使用。 Vana 試圖重塑資料經濟的格局,將使用者從被動的資料提供者轉變為積極參與、共同受益的生態系統建構者。
為了實現這個願景,Vana 允許用戶通過數據DAO 匯集並上傳數據,然後透過貢獻證明機制,在保護隱私的情況下驗證數據的價值。這些數據可以用於AI 訓練,而用戶則根據上傳資料的優質程度獲得激勵。
在實作方式上,Vana 的技術架構包括資料流動性層、資料可攜性層、通用連接組、非託管資料儲存和去中心化應用層五個關鍵元件。
資料流動性層( Data Liquidity Layer ):這是Vana 網路的核心,它透過資料流動性池(DLP)激勵、聚合並驗證有價值的資料。 DLP 就像是資料版的“流動性池”,每個DLP 都是一個智慧合約,專門用於聚合特定類型的資料資產,如Reddit、Twitter 等社群媒體資料。
資料可攜性層( Data Portability Layer ):此元件為使用者資料賦予了可攜性,確保使用者可以輕鬆地在不同的應用和AI 模型之間轉移和使用自己的資料。
數據生態圖:這是一個追蹤整個生態即時數據流動的地圖,確保了透明度。
非託管資料儲存:Vana 的創新點在於其獨特的資料管理方式,讓使用者始終保持對自己資料的完全控制權。用戶的原始資料不會上鍊,而是由用戶自行選擇儲存位置,例如雲端伺服器或個人伺服器。
去中心化應用層:在資料基礎上,Vana 建構了一個開放的應用生態系統,開發者可以利用DLP 累積的資料來建構各種創新應用,包括AI 應用,而資料貢獻者則可以從這些應用中獲得分紅獎勵。
目前Vana 上建立了圍繞ChatGPT、Reddit、LinkedIn、Twitter 等社媒平台以及專注於AI、瀏覽數據的DLP,隨著更多的DLP 加入其中,更多的創新應用在平台上構建,Vana 有潛力成為下一代去中心化AI 和資料經濟基礎設施。
這不禁讓我們想到最近發生的一則新聞,為了改善LLM 的多樣性,Meta 正在收集Facebook、Instagram 英國用戶的數據,但因讓用戶選擇“退出”而不是“同意”,而飽受強迫詬病。也許,Meta 在Vana 上分別建立一個Facebook 和Instagram 的DLP,不僅確保了數據隱私,還激勵更多用戶主動貢獻數據,會是更好的選擇。
PIN AI:去中心化AI 助手,行動式AI 連結資料與日常生活
PIN AI 今年9 月完成1,000 萬美元pre-seed 輪融資,a16z CSX、Hack VC、Blockchain Builders Fund(史丹佛區塊鏈加速器)等一眾知名VC 和天使投資人參與了本次投資。
PIN AI 是一個開放的AI 網絡,由DePIN 架構的分散式數據存儲網絡提供支持,用戶可以將設備連接至該網絡,提供個人數據/用戶偏好,獲得代幣激勵。此舉使用戶能夠重新獲得控制權並使其數據貨幣化。而開發者可以利用資料在其中建構有用的AI Agent。
其願景是成為Apple Intelligence 的去中心化替代方案,致力於向用戶群提供對日常生活有用的應用,實現用戶提出的意圖,例如線上購買商品、策劃旅行、計劃投資行為。
PIN AI 由兩種AI 組成,個人AI 助理和外部AI 服務。
個人AI 助理能夠存取用戶數據,收集用戶的需求,並且在外部服務AI 需要數據時給予它們相應的數據。 PIN AI 底層由DePIN 分散式數據儲存網路構成,為外部AI 服務的推理提供豐富的用戶數據,同時無法存取用戶的個人隱私。
有了PIN AI,用戶將不再需要打開數千個手機App 來完成不同的任務。當用戶向個人AI 助理表達「我想買一件新衣服」、「點什麼樣的外賣」或「找到我這篇文章中最好的投資機會」等意圖時,該AI 不僅了解用戶的偏好,還可以有效地執行所有這些任務——將找到最相關的應用程式和服務提供者,以競標的形式實現用戶意圖。
最重要的是,PIN AI 意識到了在當下用戶習慣直接和中心化服務提供者互動獲得服務的困局下,引入一個能提供更多價值的去中心化服務的必要性。個人AI 助理可以名正言順的以用戶的名義,獲取用戶和Web2 應用互動時產生的高價值數據,並以去中心化的方式存儲、調用,使同一份數據發揮更大的價值,使數據所有者和調用者同時受益。
雖然PIN AI 主網尚未正式上線,但團隊透過Telegram 小程度向用戶展示了產品雛形,便於感知願景。
Hi PIN Bot 由三個板塊組成,Play、Data Connectors、AI Agent。
Play 是一個AI 虛擬伴侶,由PIN AI-1.5b、Gemma、Llama 等大模型提供支援。這就相當於PIN AI 的個人AI 助理。
在Data Connectors 中,用戶可以連接Google、Facebook、X、Telegram 帳戶,賺取積分升級虛擬伴侶。未來也將支援用戶連接Amazon、Ebay、Uber 等帳戶。這就相當於PIN AI 的DePIN 資料網路。
自己的資料自己用,連接資料後,使用者可以向虛擬伴侶提出需求(Coming soon),由虛擬伴侶向符合任務要求的AI Agent 提供使用者的資料來處理。
官方開發了一些AI Agent 原型,目前仍是測試階段,這些也相當於PIN AI 的外部AI 服務。例如X Insight,輸入推特帳號,它可以分析該帳號的運作。當Data Connectors 支援電商、外帶等平台帳戶後,像Shopping、Order Food 這些AI Agent 也能夠發揮作用,自主處理用戶提出的訂單。
總的來說,透過DePIN+AI 的形式,PIN AI 建立了一個開放的AI 網絡,讓開發者可以建立真正有用的AI 應用,讓使用者的生活變得更加便捷和智慧。隨著更多的開發者加入,PIN AI 將會帶來更多創新的應用,讓AI 真正融入日常生活。
Sahara:多層架構領航AI資料確權、隱私、與公平交易
Sahara 在今年8 月完成4,300 萬美元A 輪融資,Binance Labs、Pantera Capital、Polychain 等知名VC 投資。
Sahara AI 是一個多層架構的AI 區塊鏈應用平台,專注在AI 時代建立一個更公平透明、能夠將資料進行價值歸屬並分潤給用戶的AI 發展模式,解決傳統AI 系統中的隱私、安全、資料取得以及透明度等痛點。
通俗的來說,Sahara AI 想要建立一個去中心化的AI 網絡,讓用戶能自己控制數據,也能根據貢獻的數據品質來獲得獎勵。這樣一來,使用者不再是被動的數據提供者,而是變成了能夠參與進來,共享收益的生態系統建構者。
使用者可以把資料上傳到他們的去中心化資料市場,然後透過一種特殊的機制來證明這些資料的所有權(「確權」)。這些數據可以用來訓練AI,用戶根據數據的品質來獲得獎勵。
Sahara AI 包含應用程式、交易、資料和執行四層架構,為AI 生態系統發展提供了強大的基礎。
應用層:提供安全保險庫、去中心化AI 資料市場、無程式碼工具包和Sahara ID 等工具。這些工具能夠確保資料隱私並推動對使用者的公平補償,並進一步簡化創建和部署AI 應用的過程。
簡單來說,保險庫利用先進的加密技術保障AI 資料的安全性;去中心化AI 資料市場可以用於資料收集、標註和轉化,促進創新和公平交易;無程式碼工具包則使AI 應用的開發更簡單;Sahara ID 負責管理使用者聲譽,保障信任。
交易層:Sahara 區塊鏈,透過權益證明(PoS)共識機制來確保網路的效率和穩定性,讓即使在有惡意節點存在的情況下也能達成共識。此外,Sahara 的原生預編譯功能是專為優化AI 處理而設計,能直接在區塊鏈環境中進行高效計算,提升系統效能。
資料層:管理鏈上和鏈下的資料。鏈上資料處理不可追溯的操作與屬性記錄,保障信譽與透明性;鏈下資料則處理大型資料集,並透過Merkle Tree 與零知識證明技術來確保資料的完整性與安全性,防止資料重複與篡改。
執行層:抽象化了保險庫、AI 模型和AI 應用的操作,支援各種AI 訓練、推理和服務範式。
號
整個四層架構不僅確保了系統的安全和可擴展性,還體現了Sahara AI 促進協作經濟和AI 發展的遠大願景,旨在徹底改變AI 技術的應用模式,為用戶帶來更具創新性和公平的解決方案。
結語
隨著AI 技術的不斷進步和加密市場的興起,我們正站在一個新時代的門檻上。
隨著AI 大模型和應用的不斷湧現,對算力的需求也呈指數級增長。然而,算力的稀缺性和成本的上升,對許多中小型企業來說,是一個巨大的挑戰。幸運的是,去中心化的解決方案,特別是Hyperbolic、Aethir 和IO.NET,為AI 新創公司提供了新的算力獲取途徑,降低了成本,提高了效率。
同時,我們也看到了數據在AI 發展中的重要性。數據不僅是AI 的食糧,更是推動AI 應用落地的關鍵。 PIN AI、 Sahara 等計畫透過激勵網絡,鼓勵用戶參與數據的收集和分享,為AI 的發展提供了強大的數據支援。
算力和資料不僅僅是訓練環節,對於AI 應用來說,從資料攝取到生產推理,每個環節都需要利用不同工具來實現大量資料處理,而且這是一個不斷重複的流程。
在這個AI 和Crypto 交織的世界中,我們有理由相信,未來將見證更多創新的AI 項目落地,這些項目將不僅改變我們的工作和生活方式,也將推動整個社會向更加智能化、去中心化的方向發展。隨著科技的不斷進步和市場的不斷成熟,我們期待著一個更開放、公平、更有效率的AI 時代的到來。