金融、医療、法律などの垂直アプリケーション シナリオで大規模な AI モデルを実装する際の最大の障害は、AI 出力結果の「錯覚」問題が、精度が要求される実際のアプリケーション シナリオと一致しないということであることは誰もが知っています。どうすれば解決できるでしょうか?最近、@Mira_Network はパブリック テストネットを立ち上げ、ソリューションを提供しました。何が起こったのかお話ししましょう:

まず、AIビッグモデルツールには誰もが感じ取れる「幻覚」があります。主な理由は2つあります。

1. AI LLM のトレーニング データが完全ではありません。既存のデータは膨大ですが、それでも一部のニッチな分野や専門分野をカバーできていません。このとき、AI は「クリエイティブな完了」を実行してからリアルタイム エラーを引き起こす傾向があります。

2. AI LLM は本質的に「確率的サンプリング」に依存しており、これは真の「理解」ではなく、トレーニング データ内の統計的パターンと相関関係を識別するものです。したがって、確率的サンプリングのランダム性、トレーニングと推論の結果の不一致などにより、高精度の事実上の問題を扱う AI に偏差が生じることになります。

この問題を解決するにはどうすればいいでしょうか?コーネル大学は、複数のモデルを共同で検証することで LLM 結果の信頼性を向上させる方法を説明した論文を ArXiv プラットフォームで公開しました。

簡単に言えば、最初にメインモデルを使用して結果を生成し、次に複数の検証モデルを統合して問題に対して「多数決分析」を実行し、モデルによって作成された「幻覚」を減らすことを意味します。

一連のテストでは、この方法により AI 出力の精度が 95.6% まで向上することがわかりました。

この場合、メイン モデルと検証モデル間の共同インタラクション プロセスを管理および検証するには、分散検証プラットフォームが必ず必要になります。 Mira Network は、ユーザーと基本的な AI モデルの間に信頼性の高い検証レイヤーを構築する、AI LLM 検証の構築に特化したミドルウェア ネットワークです。

この検証層ネットワークの存在により、プライバシー保護、精度保証、スケーラブルな設計、標準化された API インターフェースなどを含む統合サービスが実現できます。 AI LLMの出力錯覚を低減することで、さまざまな応用シナリオへのAIの着陸の可能性が拡大します。また、暗号分散検証ネットワークが AI LLM エンジニアリングの実装プロセスで役割を果たすことも実践されています。

たとえば、Mira Network は金融、教育、ブロックチェーン エコロジーの分野でいくつかの事例を共有し、次のことを証明しました。

1) GigabrainがMiraを取引プラットフォームに統合すると、システムはリンクを追加して市場分析と予測の精度を検証し、信頼できない提案を除外し、AI取引シグナルの精度を向上させ、DeFaiシナリオでAI LLMの信頼性を高めることができます。

2) Learnrite は mira を使用して AI によって生成された標準テスト問題を検証し、教育機関が AI を使用して教育テストの内容の正確性に影響を与えることなく大規模なコンテンツを生成し、厳格な教育基準を維持できるようにします。

3) ブロックチェーンカーネルプロジェクトは、MiraのLLMコンセンサスメカニズムを活用してBNBエコシステムに統合し、分散型検証ネットワークDVNを作成しました。これにより、ブロックチェーン上で実行されるAI計算の精度とセキュリティがある程度保証されます。

その上。

実際、Mira Network はミドルウェアのコンセンサス ネットワーク サービスを提供していますが、これが AI アプリケーションの機能を強化する唯一の方法というわけではありません。実際、データ側でのトレーニングの強化、マルチモーダル大規模モデルによるインタラクションの強化、ZKP、FHE、TEE などの潜在的な暗号化技術によるプライバシー コンピューティングの強化はすべてオプションのパスです。しかしそれに比べると、Mira のソリューションは実装が迅速で、すぐに結果が得られます。