@Mira_Network の作業メカニズムから、AIが真実を語っているかどうかを見分ける方法を解説します!
現在のほとんどのLLMモデルを使用したAIは、しばしば真剣に無意味なことを言っており、実際には信頼性を持つことができません。技術の問題ではなく、原理的に制限が存在し、正確かつ中立であることを同時に求めることができないのです。
データを多く訓練するほど、偏見を減らすことができますが、物語を作り始める可能性があります。データがクリーンであればあるほど、特定の立場に偏る可能性があります。
Miraのコアメカニズムはコンセンサス検証です。実際には、1つのモデルの回答に依存せず、複数のモデルが一緒に判断に参加します。全員が「はい」と言ったときのみ、この回答は検証を通過したと見なされます。
全体のプロセスは以下の3つのステップに分かれています!
1⃣バイナリゼーション
AIの回答は一つの段落で判断するのではなく、一文一文の小さな判断に分けるべきです。
例えば:地球は太陽の周りを回り、月は地球の周りを回ります。
Miraはこの文を次のように分けます:
地球は太陽の周りを回っている
月が地球の周りを回る
各文は独立して検証されます。これにより、全体としては正しいように聞こえるが、実際には詳細がすべて間違っているという問題を回避します。
2⃣ 分散検証
これらの分割された文は、Miraネット
原文表示