📢 Gate廣場 #MBG任务挑战# 發帖贏大獎活動火熱開啓!
想要瓜分1,000枚MBG?現在就來參與,展示你的洞察與實操,成爲MBG推廣達人!
💰️ 本期將評選出20位優質發帖用戶,每人可輕鬆獲得50枚MBG!
如何參與:
1️⃣ 調研MBG項目
對MBG的基本面、社區治理、發展目標、代幣經濟模型等方面進行研究,分享你對項目的深度研究。
2️⃣ 參與並分享真實體驗
參與MBG相關活動(包括CandyDrop、Launchpool或現貨交易),並曬出你的參與截圖、收益圖或實用教程。可以是收益展示、簡明易懂的新手攻略、小竅門,也可以是現貨行情點位分析,內容詳實優先。
3️⃣ 鼓勵帶新互動
如果你的帖子吸引到他人參與活動,或者有好友評論“已參與/已交易”,將大幅提升你的獲獎概率!
MBG熱門活動(帖文需附下列活動連結):
Gate第287期Launchpool:MBG — 質押ETH、MBG即可免費瓜分112,500 MBG,每小時領取獎勵!參與攻略見公告:https://www.gate.com/announcements/article/46230
Gate CandyDrop第55期:CandyDrop x MBG — 通過首次交易、交易MBG、邀請好友註冊交易即可分187,500 MBG!參與攻略見公告:https://www.gate.com/announcements
大模型長文本處理成新標配 挑戰與機遇並存
長文本能力成爲大模型廠商新"標配"
大模型正以驚人的速度提升其文本處理能力,從最初的4000 token擴展到目前的40萬token。長文本處理能力似乎已成爲衡量大模型廠商實力的新標準。
目前,國內外頂級大模型公司和研究機構都將擴展上下文長度作爲重點升級方向。OpenAI的GPT系列模型經過多次升級,上下文長度從4千增至3.2萬token。Anthropic更是一舉將上下文長度提升至10萬token。國內的月之暗面推出的Kimi Chat支持輸入20萬漢字,約合40萬token。
長文本能力的提升意味着模型可以處理更長的輸入文本,增強了閱讀理解能力。從最初只能讀完一篇短文,到現在可以處理一本長篇小說。這不僅擴展了模型的應用場景,也爲金融、法律、科研等專業領域的智能化升級提供了可能。
然而,文本長度並非越長越好。研究表明,模型支持更長上下文輸入與效果提升並不能直接畫等號。更重要的是模型對上下文內容的有效利用。
月之暗面創始人楊植麟認爲,大模型的上限由單步能力和執行步驟數共同決定,其中單步能力與參數量相關,而執行步驟數即上下文長度。長文本技術既可以解決大模型早期的一些問題,也是推進產業落地的關鍵技術之一。
目前,長文本技術在信息提取、代碼生成、角色扮演等方面展現出強大潛力。但在實際應用中仍存在一些問題,如無法聯網獲取最新信息、生成過程無法暫停修改等。
長文本技術面臨"不可能三角"困境:文本長短、注意力和算力三者難以兼顧。這主要源於Transformer結構中自注意力機制的計算量隨上下文長度呈平方級增長。
爲解決這一困境,目前主要有三種方案:
雖然長文本的"不可能三角"困境暫時無解,但這也爲大模型廠商指明了探索方向:在文本長短、注意力和算力三者之間尋找最佳平衡點,以處理足夠信息的同時兼顧注意力計算與算力成本限制。