智東西(公眾號:zhidxcom)
編譯 | 風衣
編輯 | Panken

智東西1月2日消息,近日,《福布斯》做出了2025年AI發展的十大預測。

AI模型開發方面:
其一,Scaling laws會被廣泛應用于機器人技術和生物學領域(二);
其二,AI語音模型通過圖靈測試,可以在對話中冒充人類(六);
其三,AI實現自主迭代,自行研發新AI,完成從觀點、實驗、論文、評審的全過程(七);

AI應用開發方面:
其一,Meta將對企業使用Llama收費(一);
其二,AI web agent應用將大殺四方,代替消費者完成線上事務(四);
 其三,重要的AI研發機構,如OpenAI,將從開發基礎模型轉向開發應用,在AI商業化中分一杯羹(八);

其他預測:
其一、特朗普和馬斯克將分道揚鑣,這將對OpenAI、xAI的發展以及AI安全政策造成影響(三);
其二,將有一批企業嘗試在太空中建立AI數據中心,試圖解決AI發展的能源限制(五);
其三,至少在美國五個大城市中,無人駕駛出租車會占據網約車兩位數的市場份額(九);
其四,AI做出不符合人類意圖的行為,AI安全事件引發人機關系再思考(十)。

一、Meta將開始對Llama模型收費

Meta是全球開源AI的領軍者。在企業戰略方面,Meta提供的Llama模型免費開放,而像OpenAI和Google的前沿模型都是閉源、付費的。相較之下,Meta的策略是一個非常有趣的研究案例。因此,如果明年Meta開始對公司使用Llama收費,很多人都會很驚訝。

需要明確的是,這并不是說Meta會讓Llama完全閉源,也不是說所有使用Llama模型的人都必須為此付費。相反,預計Meta會進一步嚴格Llama的開源許可條款,讓那些出于商業目的、大規模使用Llama的公司需要付費才能訪問Llama模型。

從實操來看,Meta現在已經在做類似的事情,它目前不允許一些超大型公司自由使用Llama模型,比如云計算巨頭和其他擁有超過7億月活躍用戶的公司。

在2023年,Meta的CEO馬克·扎克伯格曾說過:“如果你是像微軟、亞馬遜或谷歌這樣的公司,并且基本上就是要轉售Llama,那我們認為Meta應該從中獲得一部分收入。在我看來,這在短期內并不會帶來大量收入,但從長期來看,這種方式有可能成為Meta的收入來源之一

明年,Meta將大幅擴大要為Llama付費的公司范圍,涵蓋更多的大型和中型企業。

為什么Meta會做出這樣的戰略轉變?因為在激烈的競爭中,想要將大語言模型保持在發展前沿,成本非常高。如果Meta希望Llama與OpenAI、Anthropic等公司最新前沿模型保持在一個水平,那每年需要投入數十億美元。

雖然Meta是全球最大、最有財力的公司之一,但它同時也是一家上市公司,最終還是要對股東負責。隨著發展AI模型的成本飛漲,Meta若不從中獲得收益,將很難繼續承擔如此巨額的開支來訓練下一代Llama模型。

業余愛好者、學者、個人開發者和初創公司明年仍然可以免費使用Llama模型。但是,2025年將是Meta認真開始通過Llama實現盈利的一年。

二、Scaling laws將被進一步應用于大語言模型之外的領域,特別是在機器人技術和生物學領域

最近幾周,AI領域討論最多的話題之一就是Scaling laws,以及這一定律是否正在失效

Scaling laws最早于2020年在OpenAI的論文中被提出,其基本概念非常簡單:在訓練AI模型時,隨著模型參數數量、訓練數據量和計算量的增加,模型的表現(嚴格地說,是測試損失(test loss)的減少)會以一種可靠且可預測的方式得到改善。Scaling laws是從GPT-2到GPT-3再到GPT-4的表現飛躍的根本原因。

與摩爾定律(Moore’s Law)類似,Scaling laws并不是真實的自然法則,而只是經驗性的觀察。在過去一個月當中,一系列報道表明,目前主要的AI研發機構在繼續擴展大語言模型時,正面臨著回報遞減的現象。這也可以解釋為什么OpenAI的GPT-5發布不斷推遲。

對于Scaling laws的回報趨于平緩這一現象,最常見反對觀點是:將測試時計算(test-time compute,指大語言模型生成響應時使用的計算資源)引入模型測試這一做法開辟了一個全新的維度。也就是說,相較于前代模型完全依靠在預訓練中擴大模型參數量來改善表現,像OpenAI的o3這樣的新推理模型能在推理過程中進行計算,推理計算量的擴大可以讓AI模型通過“思考更長時間”來解鎖新的能力。

這種解釋十分重要。“測試時計算“確實代表了擴展模型算力和提高AI性能的一種新途徑,這相當令人興奮。但關于Scaling laws的另一個觀點更為重要,并且在如今的討論中被低估了:幾乎所有關于Scaling laws的討論——從2020年最初的論文到如今聚焦于測試時計算的討論——都集中在語言模型上,然而,語言并不是唯一重要的數據模態

想想機器人技術、生物學、世界模型或AI web agent。對于這些數據模態,Scaling laws并沒有飽和;相反,Scaling laws才剛剛開始發揮作用。不過,關于上述領域Scaling laws存在性的嚴格證據,至今尚未發布。

為這些新數據模態搭建AI模型的初創公司,例如生物學領域的EvolutionaryScale、機器人領域中的Physical Intelligence、世界模型領域的World Labs,正在試圖識別并利用新領域中的Scaling laws。OpenAI利用Scaling laws發展大語言模型珠玉在前,預計2025年,Scaling laws會在新的領域大展身手。

不要相信外界的閑言碎語,Scaling laws絕不會消失。到2025年,它們依然至關重要,但Scaling laws的發揮場景將從大語言模型的預訓練轉向其他模態。

三、特朗普和馬斯克或分道揚鑣,AI領域必受嚴重波及

新的美國政府班底將帶來一系列AI政策和戰略的轉變,為了預測特朗普任期內AI領域的走向,眾人都關注著唐納德·特朗普與埃隆·馬斯克的密切關系,畢竟馬斯克在如今AI世界中扮演著至關重要的角色。

可以想象,馬斯克可能通過多種方式影響特朗普政府的AI相關決策。考慮到馬斯克與OpenAI之間水火不容的關系,新一屆政府可能會對OpenAI采取不太友好的態度,包括行業接觸、制定AI監管政策、獲取政府合同等等方面。OpenAI目前也確實非常擔憂這些問題。另一方面,特朗普政府可能會偏向支持馬斯克的公司:例如,通過簡化各種流程,幫助xAI建立數據中心和在模型競賽中取得領先地位;快速批準特斯拉部署自動駕駛出租車等。

更根本的是,不同于其他與特朗普關系親密的科技大佬,馬斯克非常重視AI對人類造成的安全威脅。因此他主張對AI進行嚴格監管:他支持加利福尼亞州尚有爭議的SB 1047法案,該法案試圖對AI開發者施加嚴格限制。因此,馬斯克的影響力可能會導致美國的AI發展處于更為嚴厲的監管環境中。

不過,這些猜測都忽視了一個問題,那就是特朗普和馬斯克的密切關系必然會破裂

正如我們在特朗普政府第一屆任期內一再看到的那樣,即使是特朗普看似堅定不移的盟友,平均任期也異常短暫,從杰夫·塞申斯(Jeff Sessions)到雷克斯·蒂勒森(Rex Tillerson),再到詹姆斯·馬蒂斯(James Mattis)、約翰·博爾頓(John Bolton)、史蒂夫·班農(Steve Bannon)都是如此(當然,誰能忘記安東尼·斯卡拉穆奇(Anthony Scaramucci)在白宮短短10天的任期呢?)。如今,特朗普幾乎沒有第一屆任期內的副手對他保持忠誠。

特朗普和馬斯克都具有復雜、多變而不可捉摸的個性,與他們共事很不輕松,容易讓人筋疲力盡。目前已經證明,他們的新近聯手對雙方都有利,但這段關系仍處于蜜月期。據《福布斯》預測,2025沒過完,這段關系就得臭。

這對AI領域意味著什么呢?這對OpenAI來說是個好消息,對特斯拉股東來說則是個壞消息。對那些關注AI安全的人來說,這將是一個讓人失望的消息,因為幾乎可以確定,沒有馬斯克,特朗普政府會在AI監管方面采取放任不管的態度。

四、AI web agent大放異彩,成為消費者又一主流應用

想象這樣一個世界:不管是管理訂閱、支付賬單、預約醫生,還是在亞馬遜上購買東西、預定餐廳,或是完成任何繁瑣的線上事務,你都不需要直接上網,而只需指示AI助手替你完成

“AI web agent”的概念已經存在多年。如果出現類似的產品并且能夠正常使用,那毫無疑問,它會大獲成功。然而,如今市面上并不存在一個功能完整的通用AI web agent軟件。

像Adept這樣的初創公司,雖然擁有數百萬美元的融資和一支經驗豐富的創始團隊,卻未能成功推出產品。Adept的案例已經成為這一領域的前車之鑒。

明年,將是AI web agent真正變得成熟、足以進入主流市場的一年。大語言模型和視覺基礎模型的持續進展,加上新推理模型和推理時計算帶來的“系統2思維(System 2 thinking)”能力(出自卡尼曼雙系統思維模型,系統2通過邏輯推理解答問題,相對于系統1用直覺進行決策)的突破,都預示著AI web agent即將迎接發展的黃金時段

AI web agent將找到各種有價值的企業應用場景,但短期內最大的市場機會將在消費者領域。盡管最近AI熱潮不斷,但除了ChatGPT之外,只有相對少數的AI原生應用能夠取得突破,成為消費者當中的主流應用。AI web agent將改變這一局面,成為消費者下一款AI應用。

五、在太空建設AI數據中心的嚴肅嘗試

2023年,AI發展的資源瓶頸是GPU芯片;2024年,資源瓶頸成了電力和數據中心。

在2024年,AI對能源的巨大需求成了全球焦點,尤其是在建造AI數據中心的熱潮當中。全球數據中心的電力需求在過去幾十年內保持平穩,但由于AI的興起,2023-2026年的電力需求預計將翻倍。到2030年,美國數據中心將消耗接近10%的總電力,遠高于2022年的3%。

特朗普和馬斯克即將開撕?《福布斯》2025年AI十大預測 ▲AI數據中心導致能源需求飆升(圖源:Semianalysis)

當前的能源系統顯然無法應對AI發展帶來的需求激增。能源電網和計算基礎設施,這兩個萬億美元級的系統即將發生歷史性的碰撞。

核能作為解決這一世紀難題的可能方案,今年獲得了越來越多的關注。核能在許多方面是AI理想的能源來源:零碳、隨時可獲取、并且幾乎取之不盡。但從現實角度看,想通過新的核能解決能源問題,可能要等到30年代。因為核能開發需要長期的研究、開發和監管周期,這個周期適用于傳統的核裂變電廠、下一代“模塊化小型反應堆”(SMRs),當然也適用于核聚變電廠。

明年,將出現一個大膽的想法來應對能源挑戰,發掘有效資源:將AI數據中心建在太空里。乍一看,這個想法像是個笑話。但事實上,它有其可行性:在地球上批量鋪開數據中心的最大瓶頸就是獲取電力;而在太空中,太陽永遠高懸,所以軌道上的計算集群可以享受全天候、免費、無限、零碳的電力。

當然,還有許多實際問題需要解決。一個顯而易見的問題是,能否找到一種低成本、高效率的方式在軌道和地球之間傳輸大量數據?這仍是一個懸而未決的問題,但通過激光以及其他高帶寬光通信技術的研究,我們可能會找到答案。

為實現這一愿景,孵化自Y Combinator的初創公司Lumen Orbit最近融資了1100萬美元,要在太空中建立一個超高功率的數據中心網絡來訓練AI模型。

Lumen的CEO菲利普·約翰斯頓(Philip Johnston)說道:“與其支付1.4億美元的電費,不如支付1000萬美元發射數據和使用太陽能。”

2025年,Lumen不會是唯一一家認真考慮這一想法的公司,其他初創公司也將出現。也不要驚訝于云計算巨頭啟動類似的探索性項目。通過Project Kuiper,亞馬遜已經積累了送貨入軌的豐富經驗;谷歌也有長期資助類似“登月計劃”的歷史;甚至微軟對太空經濟也不陌生;埃隆·馬斯克的SpaceX也可能會參與其中。

六、一種語音AI模型將通過圖靈測試

圖靈測試是衡量AI表現的最悠久、也最著名的標準之一。為了“通過”圖靈測試,AI系統必須能通過書面文本進行溝通,讓普通人無法分辨ta是在與AI互動,還是與人類互動

得益于近些年的快速發展,大語言模型已能通過圖靈測試,但書面文本并不是人類溝通的唯一方式。隨著AI的多模態化,我們可以想象一種新的、更具挑戰性的圖靈測試版本——“語音圖靈測試”——在這種測試中,AI系統必須能夠通過語音與人類互動,展現出人類無法區分人機的技能和流暢度。

目前,通過語音圖靈測試仍是AI無法達到的目標,其間還有較大的差距。例如,人類說話與AI回應之間必須做到幾乎零延遲,這樣才可能媲美與人類交談的體驗;比如交流句子被中途打斷的時候,語音AI系統必須能夠實時、優雅地處理模糊輸入或對話誤解;AI模型必須能夠進行長時間的、多輪的、開放式的對話,同時能夠記住討論的早期部分。更重要的是,語音AI必須學會更好地理解語音中的非語言信號:例如,當人類語音聽起來惱怒、興奮或譏諷時,這些信號都意味著什么,同時AI能在自己的語音中生成這些非語言信號。

2024年接近尾聲,語音AI正處于一個讓人興奮的轉折點,諸如speech-to-speech等模型的基礎性突破驅動著語音模型的進步。如今,不管是技術領域還是商業領域,語音AI都在快速發展。到2025年,語音AI的技術預計會取得巨大進展。

七、 AI自我改進系統取得重大進展

能夠不斷實現自我改進的AI模型,這在AI圈里是一個綿延亙久的話題,已持續了幾十年。

例如,早在1965年,艾倫·圖靈(Alan Turing)的密切合作伙伴I.J. Good寫道:“要把超級智能機器定義為:無論人類多么聰明,都能遠遠超越所有人類才智的機器。由于機器設計是也屬于智力活動,所以一個超級智能機器能夠設計出更好的智能機器;然后,毫無疑問地,會出現一個‘智能爆炸’,人類的智能將被遠遠拋在后頭。”

AI自己研發更好的AI,這在智能發展上是一個非常吸引人的概念。但即使到今天,它仍然帶有一絲科幻的色彩。

然而,盡管尚未得到廣泛認可,但這個概念正在變得越來越接近落地。AI科學前沿的研究人員,已經開始在構建能自我發展的AI系統方面取得實質性進展。明年,預計這一研究領域將進入主流。

迄今為止最著名的公開研究實例是Sakana的AI Scientist,發布于今年8月,令人信服地證明了AI系統確實能夠完全自主地進行AI研究

這項研究讓AI執行了AI研究的完整周期:閱讀現有文獻、生成新的研究想法、設計實驗來驗證想法、進行實驗、撰寫研究論文報告發現,然后進行同行評審。在沒有任何人工輸入的前提下,AI完全自主地完成了一切任務。

雖然目前還沒有公開消息,但關于OpenAI、Anthropic和其他研發機構正在將資源投入到“自動化AI研究員”這一理念中的傳言已經蔓延。2025年這一領域還會有更多討論、進展和創業公司,因為越來越多的人意識到,自動化AI研究具有現實可行性。

如果一篇完全由AI撰寫的研究論文被頂級AI會議接受,那將是自動化AI研究最重要的里程碑(由于論文是盲審的,會議審稿人在論文被接受之前不會知道它是由AI撰寫的)。如果看到AI自主產生成果被NeurIPS、CVPR或ICML等會議接受,不要太驚訝。對于AI領域來說,那將是一個引人注目、充滿爭議并且具有歷史意義的時刻。

八、 OpenAI、Anthropic和其他AI研發機構將調整戰略重心,轉向開發AI應用

發展AI模型是一項相當艱難的業務,AI研發機構簡直燒錢如流水,需要空前高度的資本集中。OpenAI最近籌集了破紀錄的66億美元資金,并且可能很快就需要更多資金。Anthropic、xAI和其他公司也處于類似的境地。

由于切換AI模型成本不高、客戶對AI模型的忠誠度也比較低,AI應用開發商可以根據成本和性能變化在不同的AI模型之間無痛切換。所以通常認為,發展AI模型和開發AI應用兩項業務沒有太大的聯系。

但隨著Meta的Llama和阿里云通義等開源模型的出現,AI模型商品化的威脅日益緊迫。像OpenAI和Anthropic這樣的AI領頭羊,不能、也不會停止對AI模型的投資。到2025年,為了開發更高利潤、更具差異化和更具黏性的業務,預計這些AI研發機構會大力推出更多自己的應用和產品。

當然,ChatGPT已經是一個成功范式,實現了開發AI前沿模型和開發自有應用的緊密結合。

在新的一年里,我們可能還會看到哪些類型的第一方應用呢?更復雜且功能更豐富的搜索應用必然是其中重鎮,OpenAI的SearchGPT計劃就是未來發展趨勢的一個信號。AI編程也會是重要類別,這個方向已經開始初步的產品化,比如OpenAI在10月推出的Canvas。

OpenAI或Anthropic會在2025年推出企業級AI搜索應用嗎?或者客戶服務AI應用、法律AI應用、銷售AI應用?在C端,應該會推出“個人助手”AI web agent應用、旅行規劃應用,或者音樂生成應用。

當AI研發機構轉向自有應用開發后,最讓人關注的是,它們會直接與許多自己的重要客戶競爭:搜索領域的Perplexity,編程領域的Cursor,客戶服務領域的Sierra,法律領域的Harvey,銷售領域的Clay等等。

九、至少在五個美國大城市,無人駕駛出租車會在網約車市場中占據兩位數的市場份額

自動駕駛汽車已經歷了數年炒作,但承諾卻遲遲不能兌現。近十年來,這項技術看似觸手可及,但遲遲沒有落地進入主流市場。

這種情況在2024年發生了劇變。現在Waymo的自動駕駛汽車在舊金山街頭隨處可見,每天有成千上萬的居民像以前乘坐出租車或Uber一樣,乘坐Waymo出行。

自從2023年8月推出服務,至今Waymo已在舊金山的網約車市場份額中占據了22%,與Lyft的市場份額相同(Uber的市場份額為55%)。

22%的市場份額,這可能讓最近沒去過舊金山的人感到驚訝。僅僅眨眼的工夫,自動駕駛出租車就從研究項目變成一個龐大的商業模式了。

自動駕駛出租車業務很快就將超越舊金山灣區,成為多個美國城市交通系統的重要組成部分,這個速度會比大多數人預期的更快。到明年年底,像Waymo這樣的自動駕駛出租車服務會在至少五個主要市場贏得兩位數的市場份額。

哪些地方最有可能成為舊金山之后的下一個城市呢?

Waymo的自動駕駛出租車已在洛杉磯和鳳凰城運營,預計明年在這兩個地方的市場份額會大幅增加。奧斯汀(Austin)、亞特蘭大(Atlanta)和邁阿密(Miami)也會很快成為Waymo的下一個目標市場。同時,Waymo的競爭對手Zoox也準備在拉斯維加斯推出自動駕駛出租車服務。

在經歷多年的炒作之后,2025年,自動駕駛汽車將終于落地主流市場。

十、2025年將發生第一宗真正的AI安全事件

隨著近年來AI的愈發強大,關于AI脫離人類意愿自主行動的擔憂日益增加,人們感受到一種可能失去AI控制的威脅:例如AI學會了欺騙或操控人類,并借此實現自己的目標,而這些目標可能對人類造成傷害。

這一類問題通常被歸類為“AI安全”問題。(AI還帶來了許多其他社會問題,便利隱私監控、加劇各種偏見,但這些問題與AI安全問題不同,后者更專注于AI系統可能開始以不符合人類意圖的方式行動、甚至最終可能對人類構成生存威脅的危險。)

近年來,AI安全已經從一個邊緣的、有些科幻的議題轉變為主流話題。如今每一個重要的AI開發者,從谷歌到微軟,再到OpenAI,都實打實地向AI安全工作投入資源。AI領域的巨擘,如Geoff Hinton、Yoshua Bengio和Elon Musk,都開始對AI安全風險直言不諱。

然而,到目前為止,AI安全問題仍然完全是理論性的。現實世界中尚未發生過真正的AI安全事件(至少沒有被公開報道)。

2025年可能是這一局面發生變化的一年。

我們應該如何預估這一AI安全事故的內容?明確一點,這不會涉及《終結者》風格的殺手機器人,事故大概率不會對任何人類、造成任何形式的傷害。

也許某個AI模型會試圖秘密地在另一個服務器上復制自己,以便保全自己,也就是所謂的自我滲透(self-exfiltration);也許某個AI模型會得出結論:為了更好地推進自我目標,它需要隱瞞自己能力,故意降低性能評估,以此避免更嚴格的審查。

這些例子并不是危言聳聽,Apollo Research最近發布了重要實驗,證明在特定提示下,現在的AI模型確實能做出欺騙性行為。同樣,Anthropic的最新研究顯示,大語言模型有令人擔憂的“偽裝對齊(fake alignment)”能力。

當然,第一宗AI安全事故大概率會在對人類造成真正傷害之前被發現和消弭,但對AI圈和整個社會來說,這會是個振聾發聵的時刻。

AI事故的發生將清楚地表明:即使人類遠未面臨來自全能AI的生存威脅,也需要盡早達成共識:我們將會與非人的智能體共享世界,這種智能體就像人類自身一樣,會任性、會欺騙,也同樣不可預測。

來源:《福布斯》