📢 #Gate广场征文活动第二期# 正式啓動!
分享你對 $ERA 項目的獨特觀點,推廣ERA上線活動, 700 $ERA 等你來贏!
💰 獎勵:
一等獎(1名): 100枚 $ERA
二等獎(5名): 每人 60 枚 $ERA
三等獎(10名): 每人 30 枚 $ERA
👉 參與方式:
1.在 Gate廣場發布你對 ERA 項目的獨到見解貼文
2.在貼文中添加標籤: #Gate广场征文活动第二期# ,貼文字數不低於300字
3.將你的文章或觀點同步到X,加上標籤:Gate Square 和 ERA
4.徵文內容涵蓋但不限於以下創作方向:
ERA 項目亮點:作爲區塊鏈基礎設施公司,ERA 擁有哪些核心優勢?
ERA 代幣經濟模型:如何保障代幣的長期價值及生態可持續發展?
參與並推廣 Gate x Caldera (ERA) 生態周活動。點擊查看活動詳情:https://www.gate.com/announcements/article/46169。
歡迎圍繞上述主題,或從其他獨特視角提出您的見解與建議。
⚠️ 活動要求:
原創內容,至少 300 字, 重復或抄襲內容將被淘汰。
不得使用 #Gate广场征文活动第二期# 和 #ERA# 以外的任何標籤。
每篇文章必須獲得 至少3個互動,否則無法獲得獎勵
鼓勵圖文並茂、深度分析,觀點獨到。
⏰ 活動時間:2025年7月20日 17
大模型長文本能力百倍增長 成AI發展新標配
長文本能力: 大模型新的"標配"
隨着人工智能技術的迅速發展,大模型的長文本處理能力正在成爲衡量其先進性的新標準。從最初的4000 token到如今的40萬token,大模型的上下文輸入長度在短時間內實現了百倍增長。
目前,國內外頂級的大模型技術公司和研究機構都將擴展上下文長度作爲重點升級方向。國外方面,OpenAI通過多次升級將GPT-3.5和GPT-4的上下文長度分別提升至1.6萬和3.2萬token。Anthropic更是一舉將其模型Claude的上下文長度擴展到10萬token。LongLLaMA則將上下文長度推至25.6萬token甚至更多。
國內方面,大模型初創公司月之暗面推出的Kimi Chat支持輸入20萬漢字,約合40萬token。港中文和MIT聯合開發的LongLoRA技術可將7B模型的文本長度擴展到10萬token,70B模型擴展到3.2萬token。
長文本能力的提升帶來了多方面的益處。首先,模型可以處理更長的輸入文本,從短文擴展到長篇小說乃至整本書籍。其次,長文本能力推動大模型在金融、司法、科研等專業領域的應用,爲長文檔摘要、閱讀理解、問答等任務提供了基礎。此外,長文本有助於減少模型的幻覺問題,通過提供更多上下文和細節信息來輔助模型理解和推理。
然而,擴展長文本能力也面臨着挑戰。主要存在文本長度、注意力機制和算力需求之間的"不可能三角"困境:文本越長,越難聚焦關鍵信息;注意力機制的計算量隨文本長度呈平方級增長;處理長文本需要大量算力,提高了成本。
爲解決這些問題,研究人員提出了多種方案,包括借助外部工具輔助處理、優化自注意力機制計算、利用模型優化等方法。盡管如此,長文本處理能力的提升仍然是一個復雜的技術挑戰,需要在文本長度、注意力和算力之間尋求最佳平衡點。
總的來說,長文本能力的提升標志着大模型進入了新的發展階段。它不僅解決了大模型早期存在的一些問題,還爲推動產業應用和超級APP的落地提供了關鍵技術支持。未來,隨着技術的不斷進步,長文本處理能力有望繼續提升,爲人工智能在更廣泛領域的應用鋪平道路。