@Mira_Network の作業メカニズムから、AIが真実を語っているかどうかを見分ける方法を解説します!



現在のほとんどのLLMモデルを使用したAIは、しばしば真剣に無意味なことを言っており、実際には信頼性を持つことができません。技術の問題ではなく、原理的に制限が存在し、正確かつ中立であることを同時に求めることができないのです。

データを多く訓練するほど、偏見を減らすことができますが、物語を作り始める可能性があります。データがクリーンであればあるほど、特定の立場に偏る可能性があります。

Miraのコアメカニズムはコンセンサス検証です。実際には、1つのモデルの回答に依存せず、複数のモデルが一緒に判断に参加します。全員が「はい」と言ったときのみ、この回答は検証を通過したと見なされます。

全体のプロセスは以下の3つのステップに分かれています!

1⃣バイナリゼーション
AIの回答は一つの段落で判断するのではなく、一文一文の小さな判断に分けるべきです。
例えば:地球は太陽の周りを回り、月は地球の周りを回ります。
Miraはこの文を次のように分けます:
地球は太陽の周りを回っている
月が地球の周りを回る

各文は独立して検証されます。これにより、全体としては正しいように聞こえるが、実際には詳細がすべて間違っているという問題を回避します。

2⃣ 分散検証
これらの分割された文は、Miraネットワーク内の異なる検証ノードに送信されます。各ノードは1つのモデルまたはモデルのセットであり、完全なコンテキストを見ることはなく、自分に関連する文の真偽を判断する責任を負い、検証がより中立的になることを保証します。

3⃣コンセンサスメカニズムの検証
Miraの「プルーフ・オブ・ワーク」は本物のAI推論です。

各検証モデルはトークンをステーク(質押し)し、検証が完了したら結果を示さなければなりません。
パフォーマンスが悪いと「スラッシュ」され、ステーキングされたトークンが減少します。

モデルの「コンセンサス計算」は、ほとんどすべてのモデルが1つの判断に同意しなければ通過したとは見なされません。このメカニズムは、モデル間の「多元的コンセンサス」を用いて事実そのものに近づくことを目的としています。

結局、@Mira_NetworkはAIの出力に信頼性の証明の層を追加したものであり、この層は合意によって達成されたもので、単一のモデルによって検証されるものではありません。
原文表示
post-image
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)