看到Mira網路的公共測試網昨天推出。它試圖要建構AI的信任層。那麼,為什麼AI需要被信任呢? Mira又是如何來解決這個問題的?

人們在討論AI時,關注AI能力的強大面向更多。不過,有趣的是,AI存在著「幻覺」或偏見。人們對這個事情關注並不多。什麼是AI的“幻覺”,簡單來說,就是AI有時候會“瞎編”,一本正經地胡說八道。例如,你問AI月亮為什麼是粉紅色的?它可能會一本正經給你很多看似合理的解釋。

AI存在「幻覺」或偏見跟目前一些AI技術路徑有一定關係,例如生成式AI會透過預測「最可能」來進行內容輸出,以實現連貫性以及合理,但有時候無法驗證真偽;此外,訓練資料本身也包含錯誤、偏見甚至虛構內容,這也會影響到AI的輸出。也就是說AI本身學習的人類語言模式而非事實本身

總言之,目前的機率生成機制+數據驅動的模式幾乎不可避免地帶來AI 幻覺的可能性。

這種帶有偏見或幻覺輸出的內容如果只是普通知識或娛樂內容,暫時還不會有直接後果,而如果發生在醫療、法律、航空、金融等高度嚴謹的領域,會直接產生重大後果。因此關於如何解決AI幻覺和偏見,是AI演化過程中核心問題之一。有的採用檢索增強生成技術(跟即時資料庫結合,優先輸出已驗證事實)、有的引入人類回饋,透過人工標註人類監督來修正模型的錯誤等。

Mira計畫也在試圖解決AI偏見和幻覺的問題,也就是,Mira試圖建構AI的信任層,減少AI偏見和幻覺,提升AI的可靠性。那麼,從整體框架來說,Mira是如何減少AI的偏見和幻覺,並最終實現可信任的AI?

Mira實現這一點的核心是透過多個AI模型共識來驗證AI輸出。也就是,Mira本身就是一個驗證網絡,它驗證AI輸出的可靠性,而它藉力的是多個AI模型的共識。此外,還有一點很重要,就是去中心化共識來進行驗證。

由此Mira網路的關鍵是去中心化的共識驗證。去中心化的共識驗證是加密領域擅長的,同時它也利用了多模型的協同這一點,透過集體驗證模式來減少偏見和幻覺。

驗證架構方面,它需要有一個可獨立驗證聲明,Mira協定支援將複雜內容轉換為獨立驗證聲明。這些聲明需要節點運營商參與驗證,為了確保節點運營商的誠實,這裡會利用到加密經濟激勵/懲罰來實現,不同AI模型+分散的節點運營商參與,以保證驗證結果的可靠性。

Mira的網路架構包括了內容轉換、分散式驗證、以及共識機制,以此來實現驗證的可靠性。在這個架構中,內容轉換是重要一環。 Mira網路首先會將候選內容(一般由客戶提交)分解成為不同的可驗證聲明(以確保模型可以按相同背景下來理解),這些聲明由系統分發給節點進行驗證,以確定聲明的有效性,並匯總結果達成共識。這些結果和共識會回傳給客戶。此外,為了保護客戶隱私,候選內容轉換分解為聲明對,它們會以隨機分片的方式給到不同節點,防止驗證過程中產生資訊外洩。

節點運營商負責運行驗證器模型,處理聲明以及提交驗證結果。為什麼節點運營商願意參與聲明的驗證中來?因為可以獲得收益。收益從哪裡來?從為顧客創造的價值中來。 Mira網路的目的是為了降低AI的錯誤率(幻覺和偏見),一旦可以達成目的,就可以產生價值,例如在醫療、法律、航空、金融等領域降低錯誤率,這會產生巨大價值。因此,客戶就有意願付費。當然,至於付費的可持續性和規模則取決於Mira網路能否持續為客戶帶來價值(降低AI錯誤率)。此外,為了防止節點隨機回應的投機取巧的行為,持續偏離共識的節點會被消減質押代幣。總言之,就是透過經濟機制的博弈來確保節點業者誠實參與驗證。

整體來說,Mira為實現AI的可靠性,提供了一種新的解決思路,就是在多AI模型基礎上,構建出去中心化共識驗證網絡,為客戶的AI服務帶來更高的可靠性,降低AI偏見和幻覺,以滿足客戶更高準確度和精確率的需求。並在為客戶提供價值基礎上,為Mira網路的參與者帶來收益。如果用一句話來概括,就是Mira試圖建構AI的信任層。這對於提升AI應用深入起到推動作用。

目前Mira合作的AI agent架構就包括ai16z、ARC等。 Mira網路的公共測試網於昨日推出,使用者參與Mira公共測試網,可透過使用Klok即可,它是基於Mira的LLM聊天應用,使用Klok應用可以體驗經過驗證的AI輸出(可以去比較跟沒有經過驗證的AI輸出有什麼區別),也可以賺取Mira積分。至於積分未來用途是什麼,暫時還沒透露。