智東西(公眾號:zhidxcom)
作者 | 王涵
編輯 | 漠影
智東西9月30日消息,今天,螞蟻百靈大模型宣布開源其思考模型Ring-1T的預覽版——Ring-1T-preview,參數量達1000B(1萬億)!

開源鏈接:
Hugging Face://huggingface.co/inclusionAI/Ring-1T-preview
魔(mo)搭社(she)區(qu)://modelscope.cn/models?page=1&tabKey=task
該模型延續Ling 2.0的MoE架構,在20T高質量語料上完成預訓練,結合此前公開的棒冰(icepop)方法,在自研開源高效強化學習系統ASystem上進行了針對推理能力的RLVR訓練。
在AIME 2025(美國數學邀請賽),Ring-1T通過純自然語言推理即可取得92.6的高分,進一步逼近GPT-5 with thinking(no tools)的94.6水平。
此外,在哈佛-麻省理工數學競賽HMMT 2025,競賽級代碼生成任務LiveCodeBench v6、CodeForces上,以及抽象推理基準ARC-AGI-1等任務中,Ring-1T均超越Gemini-2.5-pro和DeepSeek-V3.1-Terminus-Thinking。

為了進一步探索Ring-1T早期版本的推理上限,研究團隊將其接入多智能體框架AWorld,并在(zai)IMO 2025(國際數學(xue)奧林(lin)匹克競賽)上進(jin)行(xing)了純自然(ran)語言推理(li)測試。
此前,Ring-flash-2.0在允許三次推理嘗試的設定下,直到第三次才勉強解出第3題。相比之下,Ring-1T在本次測試中僅用一次推理就解出了第3題,并且在第1、2、4、5題上也(ye)能一次性給出部分(fen)正確答案。


百(bai)靈團隊(dui)稱Ring-1T仍在持續訓練中,此(ci)次發布(bu)的(de)預覽版仍存在語種(zhong)混(hun)雜、推理重復、身份認知錯誤等問題,希望(wang)通過開源社區的(de)反饋(kui),進一步完(wan)善Ring-1T的(de)功能。
從今年3月到現在,螞蟻一直在對百靈大模型進行迭代優化。3月,螞蟻開源了兩款MoE(混合專家)大語言模型Ling-Lite和Ling-Plus,并在4月發布了Ling-Lite的更新版本Ling-lite-0415。4月初,輕量級推理模型Ring-lite-distill-preview和混合線性長推理模型Ring-lite-linear-preview開源。
5月,螞蟻發布了MoE架構的全模態大模型Ming-lite-omni-preview和Ming-lite-uni,并開源了統一多模態大模型Ming-lite-omni和Ling-lite-1.5。
6月,在Ling-lite-1.5的基礎上,螞蟻發布了輕量級推理模型Ring-lite。7月,其發布了Ming-lite-omni v1.5、Ring-lite-2507和Ling-lite-1.5-2507。
9月,螞蟻開源語言模型Ling-mini-2.0,在此基礎上推出了推理模型Ring-mini-2.0和輕量版Ling-flash-2.0以及思考模型Ring-flash-2.0。
上周五,螞蟻也才剛剛開源兩款思考模型——Ring-flash-linear-2.0 與 Ring-mini-linear-2.0,還同步發布兩大自研融合算子,即FP8融合算子和線性Attention推理融合算子。
結語:百靈大模型在復雜邏輯推理能力上下“狠功夫”
百靈大模型團隊(dui)此(ci)次開源(yuan),是想要通過開放(fang)早(zao)期成(cheng)果,匯聚社(she)區智慧,對(dui)于Ring-1T進(jin)行“查漏(lou)補缺”。
從AIME到IMO國際(ji)頂(ding)級數學競賽(sai)的(de)初步(bu)(bu)測試表現來(lai)看,Ring-1T在復雜(za)邏輯推理能力上進一步(bu)(bu)提升,正式版本的(de)性能值得期待。