![]()
(來源:麻省理工科技評論)
在嘈雜喧囂的 AI 世界里,什么才是真正值得關注的?《麻省理工科技評論》的記者和編輯花了多年時間思考這個問題,追蹤 AI 的進展,描繪下一步走向。現在,我們第一次把答案濃縮成了一份清單。
受我們每年評選的“十大突破性技術”啟發,這是一份全新的盤點:那些正在推動進步或改變權力格局的 AI 大趨勢、大方向和新突破——它們定義著今天,也將塑造明天的可能性。
![]()
人形機器人數據
Humanoid Data
就像我們說的話和寫的字變成了大語言模型的訓練數據一樣,人類運動的視頻如今也在被大規模收集,用來訓練人形機器人。
這股風潮始于一個簡單的類比:ChatGPT 靠海量文本學會了生成語言,那人形機器人能不能靠海量運動數據學會在真實世界里干活?問題在于,描述人類運動方式的數據集遠不像互聯網文本那樣現成。虛擬仿真曾經是替代方案,但仿真永遠無法完美還原真實世界的物理特性,訓練出來的機器人一到現實中就容易摔跤。
于是企業決定走笨辦法:直接收集真實世界的數據。世界各地出現了大型訓練中心,工人穿著外骨骼一天擦幾百次桌子;尼日利亞和印度的零工把手機綁在頭上,在家拍自己做家務;美國的快遞公司給員工裝上傳感器記錄搬箱子的動作,一邊研究工傷,一邊為未來可能取代他們的機器人積累訓練數據。
2025 年,僅人形機器人領域就吸引了 61 億美元投資。但一段我打開微波爐的視頻到底值多少錢?要多少個這樣的片段才能教會一個機器人做晚飯?沒有人知道這條路能不能走通。
![]()
更強大的大語言模型
LLMs+
ChatGPT 之后,下一個大事件是什么?答案可能讓人意外:還是大語言模型——只不過更強、更高效、更能獨立干活。
當前 LLM 的核心瓶頸在于:它們擅長回答一個問題,但讓它們連續工作幾天、獨立攻克一個復雜的多步驟任務,就很容易跑偏或遺忘。要從“聊天助手”進化成“AI 勞動力”,LLM 需要在三個方向上突破。
第一是效率。混合專家模型(MoE)把一個大模型拆成多個小模塊,每次只啟動需要的那部分,大幅降低算力消耗。擴散模型和 DeepSeek 提出的“文本轉圖像編碼”等實驗性方案也在探索更便宜的計算路徑。
第二是工作記憶。兩年前 LLM 一次只能處理幾十頁文本,現在最新模型的上下文窗口已經擴展到了 100 萬個 token,相當于一整摞書。但窗口越大,模型越容易在長任務中迷路。MIT CSAIL 提出的“遞歸 LLM”提供了一種新思路:把輸入拆成小塊分發給自己的多個副本,各自處理再匯總,在長任務上的可靠性遠高于傳統方案。
第三是成本。部署 LLM 的費用正在急速下降,一些模型的服務成本按年化計算已經降了幾百倍。
LLM 沒有過時,它正在脫胎換骨。
![]()
AI 詐騙
Supercharged Scams
ChatGPT 讓所有人看到了生成式 AI 的威力,犯罪分子也不例外。自 2022 年以來,網絡犯罪者迅速把 AI 工具整合進了自己的作業流程:用 LLM 寫釣魚郵件、用深偽技術制作以假亂真的視頻、用 AI 自動掃描系統漏洞、讓惡意軟件變得更難檢測……AI 沒有從根本上改變黑客攻擊的本質,但它大幅降低了入行門檻,讓攻擊變得更快、更便宜、更容易規模化。
這種趨勢已經在全球顯現。國際刑警組織警告說,東南亞的詐騙中心正在用廉價 AI 工具提速擴量;阿聯酋聲稱挫敗了一系列由 AI 輔助的攻擊;Anthropic 則透露,其正在測試的模型 Mythos 在所有主流操作系統和瀏覽器中都發現了嚴重漏洞,公司因此推遲了模型發布,并聯合多家科技公司成立了名為 Project Glasswing 的防御聯盟。
攻擊在變強,防御也在跟進。僅微軟一家,每天就要用 AI 系統處理超過 100 萬億個可疑信號,一年內攔截了價值 40 億美元的詐騙和欺詐交易。讓攻擊成為可能的同一種技術,也可能是未來防御的最大依仗。
眼下,基本的安全措施仍然能擋住大部分粗糙的 AI 輔助攻擊。但隨著公開可用的生成式 AI 能力不斷增強,未來面對更精密的攻擊時我們能否守住,還遠沒有答案。
![]()
世界模型
World Models
AI 在數字世界里已經很厲害了,但物理世界仍然是人類的地盤。寫小說、寫代碼遠比疊衣服、上街導航容易得多。許多研究者認為,要跨過這道坎,需要一種叫做“世界模型”的技術。
世界模型的核心理念是:讓 AI 像人類一樣在腦子里構建一個外部世界的模型,用它來預測行動的后果,再據此做決定。你知道把杯子推下桌子會摔碎,是因為你的大腦里有一個夠用的物理模型。AI 目前還沒有這個東西。LLM 看似能回答“杯子推下桌會怎樣”,但研究表明這種“理解”很脆弱,稍微換個條件就徹底失靈。
這個方向最近突然熱了起來。谷歌 DeepMind 和斯坦福教授李飛飛創辦的 World Labs 都在積極推進,楊立昆從 Meta 離職創辦了專注世界模型的初創公司,OpenAI 也把關閉 Sora 視頻應用后釋放的資源轉投到了“長期世界模擬研究”上。
目前的應用還比較初級。谷歌 DeepMind 和 World Labs 在做的事情是根據文本、圖像或視頻生成可交互的 3D 虛擬環境,可以用在游戲設計和 VR 體驗中。《寶可夢 Go》的開發商則在用玩家收集的數十億張圖片構建世界模型的雛形,目標是引導配送機器人。
真正的突破可能要等到世界模型被整合進靈活的智能體,既能理解環境,又能預判后果,還能自己做決定。到那一步,機器人才有可能真正走進物理世界。
![]()
戰爭中的 AI 指揮
The New War Room
把伊朗沖突稱為第一場“AI 戰爭”并不準確。從阿富汗到烏克蘭再到以色列,算法幫軍方做分析、識別目標已經有好多年了。真正新的東西是:指揮官們開始向基于大語言模型的對話式 AI 尋求行動建議,而不只是讓它幫忙分析情報。
過去十年,Maven 等 AI 系統干的是初級分析師的活,從海量監控畫面和衛星圖像中挑出有價值的信號。現在大語言模型讓這些系統變得更具交互性:軍方人員可以把一份潛在目標清單丟給聊天機器人,讓它建議先打哪一個。Anthropic 的 Claude 已經深度嵌入美軍作戰流程,以至于五角大樓說要花六個月才能替換掉它。
問題是顯而易見的。用過生成式 AI 的人都知道,同一個提示詞每次跑出來的結果不一樣,建議未必準確。正常情況下用戶應該逐條核查,但在“五分鐘內決定打哪個目標”的壓力下,核查很可能被省略。軍事專家還警告說,指揮官可能過度信賴 AI 把復雜戰場壓縮成一塊整潔儀表盤后呈現的畫面,而科技公司也可能借此對軍方決策產生不當影響。
與此同時,五角大樓正計劃讓 AI 公司用機密軍事數據訓練新模型,這將帶來全新的安全風險,也讓硅谷與五角大樓的距離前所未有地近。
算法自動化軍事中的苦差事已經有很長一段時間了,但現在生成式 AI 在作戰室里有了自己的席位,指揮官們開始認真對待它的建議。它正在重塑軍方共享情報、與大型科技公司合作以及做出致命決策的方式。
![]()
被武器化的“深度偽造”
Weaponized Deepfake
隨著生成式 AI 的進步和工具的普及,偽造圖像、視頻與音頻的門檻大幅降低,普通人也能制造高度逼真的虛假內容。這些內容已被廣泛用于色情制作、詐騙和政治操控,不僅傷害個體,也在更深層次侵蝕社會信任。
其中,女性與邊緣群體承受的影響尤為嚴重,大量深度偽造內容帶有性剝削性質。與此同時,政治領域的濫用也在加劇,一些 AI 生成的圖像和視頻被用于影響公眾認知,甚至誤導選民。
盡管業界提出了技術防護、用戶自我保護和立法監管等解決方案,但都存在明顯局限:技術可以被繞過,行為難以改變,監管執行也充滿不確定性。隨著美國中期選舉臨近,而相關監管與研究力量卻在削弱,深度偽造可能進一步加劇信息混亂。
當真假難辨成為常態,人們失去的或許不只是判斷力,而是對現實本身的信任。
![]()
多智能體協作
Agent Orchestration
當前,生成式智能體(Generative Agent)正在擺脫只能“聊天”的功能邊界,走向任務的自主執行。在此基礎上,多智能體系統通過角色分工與動態調度,可協同完成編程、調研、流程管理等復雜任務,讓個體工作者具備團隊級產出能力。從代碼協作到科研輔助,這類工具試圖將知識工作模塊化、流水線化,重構白領崗位的價值鏈條。
效率提升的背后是控制力的讓渡。當智能體開始操作真實系統、調用敏感數據,模型幻覺、目標錯位或提示詞注入都可能引發難以追溯的連鎖錯誤。而當前評估標準、審計機制與應急方案普遍缺位,技術落地跑在了安全基建前面。
更深層的拷問在于:當我們習慣將決策鏈條交給自主代理,人類是變得更高效,還是逐漸喪失對過程的理解與干預能力?信任不該是黑箱的副產品,而需建立在可解釋、可回退、可問責的基礎之上。
![]()
中國的開源押注
China’s Open-source Bet
中國 AI 實驗室正以“開源”為杠桿,影響全球的開發者生態。不同于硅谷將核心模型封裝收費,DeepSeek、阿里巴巴的千問、月之暗面的 Kimi 等機構選擇直接釋放模型權重,允許任何人下載、微調、本地部署。這一策略迅速贏得預算有限、追求靈活性的開發者青睞。去年中國開源模型下載量首次超越美國,阿里系模型的社區衍生版本數量已超過谷歌與 Meta 之和。
開源對于中國來說不僅是技術共享,更是地緣博弈下的務實路徑:在高端芯片受限的背景下,借助全球開發者的反饋與貢獻,反而能加速模型迭代。
當然,開放也伴隨著壓力。關于模型內容合規約束、能力蒸餾爭議依然存在。但當越來越多產品建立在中國開源底座之上,AI 技術的權力結構已悄然重構:多極化不是預測,而是正在發生的現實。
![]()
人工智能科學家
Artificial Scientist
當“自主探索”成為可能,AI 在科研中的角色正悄然轉變。如今的大模型已能檢索文獻、撰寫論文、生成代碼,而下一步的目標更加清晰:打造能獨立提出假設、設計實驗、解讀結果的“人工智能科學家”。
2024 年,DeepMind 憑借 AlphaFold 斬獲諾貝爾獎,點燃了新一輪競爭。隨后,OpenAI 發布 GPT-Rosalind,Anthropic 深耕生物領域,谷歌推出多智能體協作工具——由不同角色分工配合,共同推進研究流程。
突破不止于代碼。為彌補 AI“無法動手”的局限,研究者開始將其接入自動化實驗室:OpenAI 與 Ginkgo Bioworks 合作,讓 AI 自主迭代實驗方案,成功將某種蛋白的合成成本降低 40%。
但效率提升的同時,隱憂也隨之浮現。Nature 的一項研究提醒,當科研過度依賴 AI 分析既有數據,探索方向可能偏向“易建模、數據足”的領域,而那些冷門卻關鍵的問題,反而容易被忽視。技術可以加速發現,但科學應有的廣度與多元,終究需要人類主動守護。
![]()
人工智能抵制浪潮
Resistance
一股對人工智能的質疑浪潮,正在全球悄然蔓延。人們擔憂的不再是遙遠的科幻場景,而是眼前的現實:數據中心推高了電費,工作崗位被悄然替代,聊天機器人影響青少年心智,軍事應用缺乏邊界,創作成果被無償調用。
抗議行動隨之浮現。倫敦街頭出現示威人群,美國不同立場的群體罕見聯合,簽署宣言呼吁“技術應服務于人”;部分用戶因軍方合作卸載常用工具,家長聯名要求校園暫緩引入聊天機器人。民意調查顯示,多數公眾對 AI 的快速滲透持保留態度。
這些聲音已開始影響政策走向:紐約、加州為陪伴型機器人設立規則,英國在藝術家反對下撤回版權豁免提案,多地社區成功延緩數據中心建設。技術演進的速度從未放慢,但越來越多的人希望,在塑造未來的過程中,普通人的關切也能被認真傾聽。
https://www.technologyreview.com/2026/04/21/1135643/10-ai-artificial-intelligence-trends-technologies-research-2026/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.