智東西(公眾號:zhidxcom)
作者|依婷
編輯|漠影

智東西12月5日報道,2022年ChatGPT面世即萬眾矚目,又在兩個月內獲得了1億注冊用戶,點燃了大眾對AI的期待,也讓業界看到了AI大模型技術廣泛的應用前景。

兩年間,AI大模型如雨后春筍般涌現。中國信通院數據顯示,截至2024年7月,全球AI大模型數量為1328個(包含同一企業、同一模型的不同參數版本),中國大模型數量占比36%。行業對模型的研發和應用也已經從最開始的大語言模型,走到了多模態模型。而算力、網絡等AI大模型賴以生存和發展的基礎設施,仍需要不斷優化。

在中國大模型進入所謂“洗牌年”的節點上,昨日,智東西等媒體和中國AI大模型獨角獸MiniMax副總裁劉華、騰訊云北區云原生總經理田豐進行了交流。他們從雙方公司的合作出發,談及了算力、網絡對AI大模型落地應用帶來的影響。

一、多模態大模型期待更有性價比的算力

MiniMax成立于2021年12月,是“國產大模型六小虎”之一,自主研發了包括萬億參數的MoE文本大模型、語音和音樂大模型、圖像大模型、視頻大模型在內的多模態通用大模型。

成立至今三年,基于不同模態的通用大模型,MiniMax推出了智能助手“海螺AI”、AI內容社區“星野”“Talkie”等C端應用;MiniMax開放平臺則為企業和開發者提供API服務。

采訪中,劉華從AI大模型公司的角度出發,談到了多模態大模型應用過程中不斷提高的算力成本問題。

他說,以往的大模型處理的是文本任務,現在的大模型處理的是語音任務、視頻任務;用token來計算的話,一個小視頻的tokens比一篇文章的tokens高出太多。如果要讓新的技術落地、讓更多的企業或個人能夠接受新技術,就必須確保大模型能夠以非常有性價比的方式處理大規模的輸入或輸出。

二、大集群并不等于大算力,要優化資源利用率

自MiniMax成立以來,騰訊云就與其建立了合作關系,為其提供算力、網絡等基礎設施支持。田豐形容兩家公司“是一起手牽手走到今天”,在大模型的發展過程中,“一起去解決難題,是雙向奔赴的一個過程”。

站在云服務廠商的視角,田豐分享了這兩三年來自己對客戶需求變化的觀察。

他說,大模型公司客戶早期可能需要的是千卡集群,現在可能都是要上萬卡,后續可能會到十萬卡,“這個規模對我們的組網的能力、集群的運維,都是一個非常大的、全新的挑戰,跟原來完全是不一樣的”。

田豐拿“網絡”舉例。他稱,訓練萬億參數的大模型時,傳統的網絡協議容易造成擁堵、高延時。在這個過程中,0.1%的丟包率都會導致50%的續訓效率的下降;中斷恢復之后,需要從上一個續訓點繼續訓練模型,這會給萬億規模的模型訓練造成非常大的損失。

另外,田豐還提到,大集群并不等于大算力,算力不是靠簡單地“堆”出來的,而是需要大量優化和調整GPU資源的利用率,以及網絡傳輸通訊的效率。

結語:大模型開啟淘汰賽,技術最終要盈利去賺錢

整整兩年時間,生成式AI走過通用基座大模型的“百模大戰”與“價格戰”,面臨落地應用與商業化檢驗。多模態模型的研發和優化依舊在緊鑼密鼓地進行,應用落地并成功跑出商業模式也不可或缺。

AI大模型行業或許已進入淘汰賽階段,算力、技術、產品都成為競爭要素。中國大模型“洗牌年”,大模型公司和云服務廠商們都在打起精神。

可能就像是田豐在采訪中說的:“實踐是檢驗AI的唯一標準。AI大模型是長跑,投資人和創業者都需要有信心和耐心,炫酷的技術最終還是要落實到商業化本身,要盈利去賺錢。”