昨日、Mira Network のパブリック テストネットの立ち上げを見ました。 AI の信頼レイヤーを構築しようとします。では、なぜ AI を信頼する必要があるのでしょうか?ミラはこの問題をどう解決するのでしょうか?
AI について議論する際、人々は AI 機能の強力な側面に重点を置きます。しかし興味深いことに、AI には「錯覚」や偏見があります。人々はこの問題にあまり注意を払っていません。 AIの「幻覚」とは何でしょうか?簡単に言うと、AIは時々「物語をでっち上げて」、真面目な態度でナンセンスな話をします。たとえば、AIに「なぜ月はピンク色なのか」と尋ねます。一見合理的と思われる多くの説明を真剣に行うかもしれません。
AI における「錯覚」やバイアスの存在は、現在の AI 技術のいくつかの方向性と関係があります。たとえば、生成 AI は「最も可能性が高い」ものを予測してコンテンツを出力し、一貫性と合理性を実現しますが、その信憑性を検証できない場合もあります。さらに、トレーニング データ自体にエラー、バイアス、さらには架空のコンテンツが含まれており、これも AI の出力に影響します。つまり、AI 自体が事実そのものではなく、人間の言語パターンを学習するのです。
つまり、現在の確率生成メカニズム+データ駆動型モデルは、ほぼ必然的にAI幻覚の可能性をもたらします。
このような偏向した内容や錯覚的な内容が、単なる知識や娯楽であれば、当面は直接的な影響はないでしょう。しかし、医療、法律、航空、金融など、極めて厳密な分野に起こった場合、直接的に大きな影響を及ぼします。したがって、AI の幻覚や偏見をいかに解決するかが、AI の進化における中核的な課題の 1 つです。検索強化型生成テクノロジー(検証済み事実の出力を優先するためにリアルタイム データベースと組み合わせて使用)を使用するものもあれば、手動のラベル付けと人間による監督を通じてモデル エラーを修正するために人間によるフィードバックを導入するものもあります。
Miraプロジェクトは、AIの偏見や幻覚の問題を解決しようともしています。つまり、MiraはAIの信頼層を構築し、AIの偏見や幻覚を減らし、AIの信頼性を向上させようとしています。では、全体的な枠組みから見ると、Mira はどのようにして AI の偏見や錯覚を減らし、最終的に信頼できる AI を実現するのでしょうか?
Mira の実装の中核は、複数の AI モデルのコンセンサスを通じて AI 出力を検証することです。つまり、Mira 自体は AI 出力の信頼性を検証する検証ネットワークであり、複数の AI モデルのコンセンサスを活用します。さらに、もう一つの非常に重要な点は、検証に分散型コンセンサスを使用することです。
したがって、Mira ネットワークの鍵となるのは、分散型コンセンサス検証です。分散型コンセンサス検証は暗号分野が最も得意とする分野であり、また、集合的な検証モードを通じて複数のモデルの相乗効果を活用し、偏見や錯覚を軽減します。
検証アーキテクチャの観点からは、独立して検証可能なステートメントが必要であり、Mira プロトコルは複雑なコンテンツを独立して検証可能なステートメントに変換することをサポートしています。これらのステートメントでは、ノード オペレーターが検証に参加することを要求しています。ノード オペレーターの誠実さを保証するために、ここでは暗号経済的インセンティブ/ペナルティを使用して、さまざまな AI モデルと分散型ノード オペレーターを実装し、検証結果の信頼性を確保します。
Mira のネットワーク アーキテクチャには、コンテンツ変換、分散検証、検証の信頼性を実現するためのコンセンサス メカニズムが含まれています。このアーキテクチャでは、コンテンツ変換が重要な部分です。 Mira ネットワークは、まず候補コンテンツ (通常は顧客が提出) をさまざまな検証可能なステートメントに分解します (モデルが同じコンテキストで理解できるようにするため)。これらのステートメントは、システムによって検証用のノードに配布され、ステートメントの有効性が判断され、結果を集約してコンセンサスに達します。これらの結果とコンセンサスはクライアントに返されます。さらに、顧客のプライバシーを保護するために、候補コンテンツ変換はステートメントのペアに分解され、ランダムに分割されて異なるノードに渡され、検証プロセス中の情報漏洩を防止します。
ノード オペレーターは、バリデータ モデルの実行、クレームの処理、検証結果の送信を担当します。ノードオペレーターがクレームの検証に参加するのはなぜでしょうか?利益を得ることができるからです。利益はどこから来るのでしょうか?顧客のために創造された価値から。 Miraネットワークの目的は、AIのエラー率(錯覚や偏見)を減らすことです。この目標が達成できれば、価値を生み出すことができます。例えば、医療、法律、航空、金融などの分野でエラー率を減らすと、大きな価値が生まれます。したがって、顧客は喜んで支払います。もちろん、支払いの持続可能性と規模は、Mira ネットワークが顧客に価値をもたらし続けることができるかどうか (AI エラー率の削減) にかかっています。さらに、ノードがランダムに応答する日和見的な行動を防ぐため、コンセンサスから継続的に逸脱するノードは、ステークされたトークンが削減されます。つまり、経済メカニズムのゲームを通じて、ノード オペレーターが検証に誠実に参加することを保証します。
一般的に、Mira は AI の信頼性を実現するための新しいソリューションを提供します。これは、複数の AI モデルに基づく分散型コンセンサス検証ネットワークを構築し、顧客の AI サービスの信頼性を高め、AI の偏見や錯覚を減らし、より高い精度と精密さを求める顧客のニーズを満たすことです。そして、顧客に価値を提供することで、Mira ネットワークの参加者に利益をもたらします。一言でまとめると、Mira は AI の信頼レイヤーを構築しようとしています。これは、AI の詳細な応用を強化する上で推進的な役割を果たすことになります。
Miraが現在連携しているAIエージェントフレームワークとしては、ai16z、ARCなどがあります。 Miraネットワークのパブリックテストネットが昨日開始されました。ユーザーは、MiraベースのLLMチャットアプリケーションであるKlokを使用して、Miraパブリックテストネットに参加できます。Klokアプリケーションを使用すると、検証済みのAI出力を体験し(検証されていないAI出力と比較できます)、Miraポイントを獲得できます。ポイントの今後の利用については現時点では明らかにされていない。