從 @Mira_Network 的工作機制拆解如何辨別AI說的是真話!



現在的大多數用LLM模型的AI,經常一本正經的胡說八道,其實都沒法做到可信。不是技術不行,是原理上就存在限制,無法同時要它準確又中立。

你訓練的數據越多,越能減少偏見,但容易開始編故事。數據清洗得越幹淨,可能就更偏向某種立場。

Mira 的核心機制是共識驗證。其實就是不再依賴一個模型的回答,通過多個模型一起參與判斷。只有當大家都說是,這條回答才算通過驗證。

整個流程分爲以下三步!

1⃣Binarization
AI 的回答不是一整段拿去判斷,而是拆分成一句一句的小判斷。
比如:地球繞着太陽轉,月亮繞着地球轉。
Mira 會把這句話拆成:
地球繞着太陽轉
月亮繞着地球轉

每一句話都會被獨立驗證。它避免了整體聽起來好像對,其實細節全錯的問題。

2⃣分布式驗證
這些拆出來的語句會被送到 Mira 網路中的不同驗證節點,每個節點都是一個模型或一組模型,它們不會看到完整的上下文,只負責判斷自己那一條真假,保證驗證更中立。

3⃣驗證共識機制
Mira 的“工作量證明”是真實的 AI 推理。

每個驗證模型都要 stake(質押)代幣,驗證完回答要給出結果。
如果表現不好會被“slash”,扣掉質押的代幣。

模型的“共識計算”必須幾乎所有模型都同意一條判斷才算通過。這種機制,就是在用模型間的“多元共識”來逼近事實本身。

說到底, @Mira_Network 就是給AI 的輸出加了一層可信度證明,這一層是通過共識達成的,而不是憑單個模型進行驗證。
查看原文
post-image
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)