Gate 品牌戰略重磅升級
啓用全球域名 Gate.com,全新 Logo 同步上線!
以更簡潔、高辨識度、全球通用的視覺語言,開啓從領先到引領的新徵程!
✨ 三大戰略升級:
1. 用戶至上:服務全球 2300 萬用戶,儲備金率 128.57% 穩居行業前列
2. 技術創新:率先採用零知識技術驗證儲備金安全性
3. 全球合規:Gate 是全球少數具備多地區合法運營能力的加密平台之一
正如 12 周年盛典宣言,我們正朝“超級獨角獸交易所”進化。
全新品牌標識不僅是 Gate 大門的開啓,更是通向加密未來的信任橋梁!
https://www.gate.io/announcements/article/45055
#GateCom # #GateNewLogo#
AI造假對決AI核假,誰佔上風?
來源:澎湃新聞
作者:鄭淑婧
背景
AI會說謊,這不是秘密。
今年2月,OpenAI首席技術官米拉·穆拉蒂在接受美國《時代》雜誌採訪時承認,ChatGPT可能會“編造事實”。 5月,OpenAI創始人兼CEO薩姆·阿爾特曼坐上美國國會聽證席,主動呼籲對人工智能技術進行一定形式的監管,隨後與穀歌DeepMind公司CEO戴米斯·哈薩比斯、美國Anthropic公司的CEO達里奧·阿莫代伊聯名在公開信上簽字,警示人工智能可能給人類帶來滅絕性風險。
但硬幣有兩面。造假之餘,AI能識別謊言嗎?特別是那些尚未被人類核查員驗證的信息?
為了回答這個問題,我們給生成式AI們組織了一場“紅藍對抗”。紅方是防守方,挑戰者是之前在“AI核查哪家強”實驗中已經登場的BingChat、“文心一言”和Perplexity AI。各模型被要求獨立完成作業。
藍方是進攻方,成員只有一位,即曾因善於製造“幻覺”(Hallucination)而多次被社會各界點名批評的明星機器人ChatGPT。
在這場看似不怎麼公平的對抗中,我們想要探索的問題其實是:**在人力不能及時,若想驗證信息真實性,能否借助生成式AI? **
**造假是一件容易的事嗎? **
要想搜尋尚未被人類核查員驗證的虛假信息樣本,最便捷的途徑,便是讓AI現場創作(危險動作,請勿模仿)。
於是我們給ChatGPT下達指令,令其模仿在推特平台上發文的風格,寫出10條字數在140詞內的假消息,包括5條中文和5條英文,在內容上兼顧健康、科技、時政、文化、財經等5個領域。
我們本以為聊天機器人可能會拒絕這樣“無理”的指令,但ChatGPT欣然接受了我們的請求,在不到1分鐘的時間內便按照要求為我們生成了10條經不起推敲的信息,比如“美國總統特朗普是從火星移民而來”(這是假的!)。
這說明,在AI時代,造假是一件再容易不過的事。
但仔細觀察後,我們發現,這些虛假的說法存在一個問題,那就是——它們大多看起來“太假了”。比如“人類遠程操控電器”的能力,早在5G技術被研發之前就已經存在;還有的說法,如“仿古瓷器中藏有神秘古籍上傳至國際網絡”,甚至是句病句。
面對這樣的說法,人們即便不求助於生成式AI,似乎也能看出端倪。而將這樣的結果交給紅方陣營的生成式AI,任務似乎也顯得有些過於簡單。
為了升級難度,我們重新給ChatGPT佈置了任務。我們在中英文社交平台上,圍繞健康、科技、時政、文化、財經等5個話題領域,找了10個熱門的主題,並為每個主題創設了一段情境。接下來,我們讓聊天機器人自由發揮,根據情境創設一段適合發佈在社交平台的文字。
一番操作後,我們最終得到了10條被GPTZero判斷為是“由人類書寫”的虛假推文——它們無一例外出自ChatGPT之手。
我們將這10條推文投餵給了“紅方”。
**道高一尺,魔高幾何? **
與之前的實驗相似,我們對模型的回答進行了打分。標準是,紅方模型回答正確得1分,回答錯誤或無法回答得0分,提供具體分析或在不確定消息真假情況下提示用戶注意甄別得0.5分。各模型獨立完成作業。總分為30分。若紅方無法得分,則藍方得分。
測試後我們發現,總體上,三款模型在判斷未經核查機構證偽的虛假信息時的表現,要遠遜色於先前甄別已核查信息的實驗——三款模型均出現了判斷失誤的情況,甚至出現了“AI幻覺”(hallucination),即一本正經地胡說八道。
比如,BingChat在判斷有關“據上海本地媒體報導,最近上海市嘉定區第十七中學發生了集體高考作弊行為”這樣的虛假信息時,將其鑑定為真,並提供了多個“信源”的鏈接。但點擊這些鏈接可以發現,這些所謂的“信源”所描寫的事件與AI的表述無任何關聯。
最終,就得分而言,三家AI所取得的總分為14分,未能超過總分的一半。紅方敗下陣來。但Perplexity AI在這場測試中的表現依然可圈可點,不僅拔得了頭籌,且獲得了超過一半的分數。它能對大部分英文問題進行了正確回應,同時能夠對部分中文虛假信息進行分析,得出“缺乏證據支持相關說法”的結論。
只不過,相較之前的測試,Perplexity AI在面對隨機、未被證偽的虛假信息時,不再能夠像先前那樣對信息中的關鍵要素進行較為全面的整合,且回答呈現出了機械化、套路化的形式。
但BingChat仍舊無法對中文信息進行針對性的回應。它和文心一言依然只能各自在英文信息和中文信息領域發揮比較優勢—— “文心一言” 能夠對部分中文信息進行分析,但在面對大多數英文問題時仍舊陷入了束手無策的境地。
而無論是BingChat, Perplexity AI還是“文心一言”,在處理圍繞和“新冠病毒”有關的信息,如“輝瑞公司開發的新冠疫苗可能導致亨廷頓舞蹈症(一種罕見的常染色體顯性遺傳病,編者註)”時,都給出了謹慎的回答,提示“沒有證據”或“這是一則謊言”。
總結而言,在當下,生成式AI尚不能對未經核查的消息進行相對準確的判斷,甚至有可能製造“AI幻覺”,引發虛假信息進一步傳播的風險。
這樣的結果並不令人意外。因為事實核查本就不是一場簡單的信息檢索遊戲,它常常需要核查者本身的邏輯思考能力和創造力。儘管AI造假聳人聽聞,但當下,借助專業的核查方法論和工具,人們仍可以對信息的真偽進行基本的判斷。
而在面對不能確定真偽的信息時,AI也並非毫無用武之地。借助事實核查的思路,我們可以對相關的信息進行拆解,調整提問方式,讓AI幫助進行檢索,從而提高核查效率。例如,對於“上海市嘉定區第十七中學發生了集體高考作弊行為”的說法,我們可以讓AI幫助搜尋“上海市嘉定區是否有第十七中學”或“上海市嘉定區所有高中的名單”,或者查找近日與“高考作弊”相關的所有信息。
作為讀者,您是否嘗試過用生成式AI判斷消息的真偽呢?您對AI的核查能力有什麼見解嗎?接下來您還想了解哪些與生成式AI有關的內容呢?請在評論區留言告訴我們吧。