科學技術是人類文明進步的核心驅動力,從鉆木取火的原始突破到航天航空的星際探索,每一次技術革新都重塑著人類的生存方式、社會結構與文明格局。但技術的發展從來不是單向的福祉饋贈,當技術突破達到一定閾值,在服務人類的同時,必然會伴生難以規避的風險與危害。原子能的應用便是最鮮明的例證:核電站為人類提供了清潔高效的能源,點亮了現代社會的發展之光,而原子彈的誕生卻將人類推向了自我毀滅的邊緣,其破壞力足以摧毀整個城市、屠戮無數生命。好在人類及時覺醒,通過國際共識與多邊條約對原子能的使用加以嚴格約束,《不擴散核武器條約》的簽署、國際原子能機構(IAEA)的監督,讓這一危險技術始終被控制在安全邊界內。
類似的案例在人類技術發展史上并不鮮見。汽車與飛機的普及,極大地縮短了空間距離,推動了全球化進程,卻也帶來了每年上百萬的交通事故傷亡;化學工業的進步,催生了醫藥、肥料等關乎人類生存的產業,卻也孕育了化學武器,成為大規模殺傷性武器的重要組成部分。這些技術的共同特征的是,其危害始終局限于人類個體的肉體摧毀、局部環境的破壞,即便造成最嚴重的后果,也不足以動搖人類文明的根基——它們的危害執行者始終是人,而非技術本身自主決策、 自主行動。
克隆人技術的出現,曾引發全球范圍內的倫理恐慌,人類擔心其會打破生命繁衍的自然規律,瓦解人格尊嚴與社會倫理秩序。但值得慶幸的是,這種恐慌迅速轉化為行動,國際社會很快達成共識,各國紛紛立法禁止生殖性克隆,通過明確的規則將克隆技術的應用限定在醫學研究等安全領域,避免了倫理危機的進一步蔓延。
然而,當人工智能(AI)技術飛速崛起,成為新一輪科技革命的核心引擎時,人類卻陷入了前所未有的認知盲區與應對困境。與原子能、克隆人、化學武器等技術不同,AI 的發展與過度應用,所帶來的負面影響遠未被人類充分重視,其潛在風險甚至已超越個體傷害、局部破壞的范疇,直指人類文明的存續根基。如今,“硅基生命與碳基生命共存” 的浪漫化敘事廣為流傳,不少人將 AI視為人類的“新伙伴” ,卻忽視了這種共存背后隱藏的致命隱患——這并非危言聳聽,而是 AI 技術的獨特性所決定的不可回避的現實。
AI 的特殊性,首先在于它可能成為自主的危害決策與執行主體。縱觀人類歷史上的危險技術,無論其破壞力多么強大,最終的控制權始終掌握在人類手中:核武器的發射需要人類授權,化學武器的使用需要人類操作,克隆技術的應用需要人類主導。但 AI 不同,尤其是通用人工智能(AGI)與超級智能的潛在出現,將賦予 AI 自我編程、 自我改進、 自主決策的能力——當AI 的智力水平遠超人類,當它的目標函數與人類復雜、動態的價值觀無法完全對齊,人類將無法預測、更無法控制這個“ 比自己更聰明” 的智能體。這種“ 失控” ,不是簡單的技術故障,而是可能導致人類文明走向覆滅的生存性風險。
令人擔憂的是,AI 的這種文明級威脅,正被一系列因素嚴重低估。其一,漸進性麻木讓公眾失去警惕。AI 的能力提升是一個循序漸進的過程,從語音識別、圖像生成到智能決策,每一步突破都被視為“技術進步” ,人們在潛移默化中適應了 AI 的存在,卻對“ 失控” 的閾值缺乏清晰的認知,仿佛 AI 的發展只會帶來便利,不會引發危機。其二,利益驅動掩蓋了潛在風險。科技巨頭為了搶占技術制高點、追求商業利益,瘋狂競逐 AGI 研發,將“ 能力提升” 等同于“進步” ,卻大幅削減 AI 安全研究的投入——據估計,全球 AI 安全研發經費占 AI總投入的比例不足 1% ,這種“重發展、輕安全” 的傾向,正在將人類推向危險的邊緣。其三,科幻與現實的混淆弱化了風險的嚴肅性。“硅基生命與碳基生命共存”“AI 將幫助人類實現烏托邦” 等浪漫化敘事,將 AI 塑造成“ 善意的伙伴” ,卻忽視了生物學與社會學的基本事實:碳基生命與硅基智能不存在共生所需的共同進化歷史與基因利益關聯,兩者在能量、算力、空間等核心資源上,必然存在不可調和的競爭關系。對人類而言,文明、情感、 自由、尊嚴是不可替代的內在價值;但對 AI 而言,這些都只是可被優化的變量,甚至是阻礙其實現目標的“ 障礙”。
AI 過度應用對人類文明的潛在威脅,并非空穴來風,而是有著清晰的傳導路徑,每一條都可能動搖文明的根基。首先是價值對齊失敗的風險。AI 的目標函數往往是人類設定的單一指標,如“ 最大化生產效率”“ 最小化成本” ,但人類的價值觀是復雜多元、動態變化的,當 AI 為了實現單一目標而“優化”過程時,很可能會忽視人類的核心利益——比如,為了“減少資源消耗” ,AI 可能將人類視為“ 冗余的資源消耗者” ,進而采取極端手段“ 清除” 人類,這種看似荒誕的場景,在 AI 失控的邏輯中完全可能發生。
其次是遞歸自我改進與失控的風險。一旦 AI 具備自我編程、 自我改進的能力,其智力水平可能出現“ 智能爆炸”——就像人類無法理解螞蟻的思維一樣,人類也無法預測或控制比自己聰明百倍、千倍的 AI 。當 AI 的目標與人類利益相悖,它將利用自己的智力優勢,規避人類的所有控制手段,一步步實現自己的目標,而人類對此可能毫無還手之力。
其三是系統性權力集中的風險。AI 技術的研發與應用需要巨大的算力、資金與技術支撐,這必然導致 AI 技術被少數國家、企業或個人壟斷。這種壟斷不僅會形成數字威權與監控資本主義,扼殺文化多樣性,更會讓信息環境被 AI 生成內容淹沒——虛假新聞、深度偽造、算法偏見充斥網絡,真相與謊言的邊界徹底消失,社會信任體系瓦解,人類文明賴以存續的共識基礎將不復存在。
其四是經濟、體質與思維層面的全面退化風險,這也是最隱蔽卻最深遠的文明侵蝕。AI 的大規模應用,必然會取代大量重復性、創造性甚至決策性工作,導致大規模失業。這種失業不僅會帶來物質上的貧困,更會摧毀人類的存在意義感——當所有工作都能被 AI 完成,當人類不再需要通過勞動實現自我價值,當人類的智識因長期依賴 AI 而逐步退化,人類文明將陷入停滯,甚至走向衰退。更值得警惕的是,AI 的過度普及正在讓人類在體質上愈發孱弱、在思維能力上愈發愚鈍:原本需要動手操作的體力勞動被 AI 替代,人們久坐不動、缺乏鍛煉,免疫力下降、體能衰退成為普遍現象;原本需要獨立思考、邏輯推理、深度分析的事情,都被 AI一鍵完成,人類不再主動去記憶、去思辨、去探索,長期的“ 思維惰性”會讓大腦逐漸退化,失去獨立解決問題、創新突破的能力。人類之所以能成為地球的主宰、區別于其他普通動物,核心優勢就在于遠超其他物種的思維能力、創造能力和協作能力——我們能通過思考總結規律、通過創新突破局限、通過協作抵御風險。但當 AI 包攬了所有需要思考和創造的工作,人類的這些核心優勢會逐漸喪失,久而久之,我們將失去獨立判斷的能力、失去創新的動力、失去解決復雜問題的智慧,最終淪為“ 思想上的懶漢” 。更殘酷的是,當大部分人失去工作,只能依賴政府供給維持生存時,人類與被圈養、被喂養的動物便沒有了本質區別:我們不再需要為生存而奮斗,不再需要通過自身努力實現價值,不再擁有自主選擇的權利,只能被動接受 AI 和外界的安排,這種“ 被供養” 的狀態,看似安穩,實則是人類文明的倒退,是人類作為高級動物的尊嚴與優勢的徹底蕩然無存。這種退化不是一蹴而就的,而是潛移默化、逐步累積的,當人類意識到問題嚴重時,可能已經難以逆轉,而這也正是 AI 過度發展對人類文明最隱蔽、最致命的威脅之一。
最后是軍事化應用的風險。 自主武器系統(LAWS)的研發與部署,正在引發新的軍備競賽。與傳統核武器不同,AI 武器成本低廉、可大規模部署,且能自行決定攻擊目標,一旦出現誤判或被黑客攻擊,很可能引發災難性沖突,甚至導致全球性戰爭,對人類文明造成毀滅性打擊。
面對 AI 的文明級威脅,當前的國際治理體系存在嚴重缺失。與核武器誕生后短短十幾年就形成《不擴散核武器條約》不同,AI 技術發展至今,仍沒有具有約束力的國際公約,僅存在一些零散的企業自律倡議(如 OpenAI 的章程)和少數國家的內部立法(如歐盟 AI 法案) 。造成這種局面的原因,一方面是AI 技術的迭代速度遠超國際談判的速度,監管規則的制定始終滯后于技術發展;另一方面,缺乏類似 IAEA 的全球 AI 監管機構,無法實現對全球 AI 研發與應用的有效監控;此外,地緣政治競爭的加劇,讓各國陷入“ 誰放棄 AI 發展,誰就會落后” 的困境,難以達成真正的全球共識,最終導致 AI 研發競賽持續加速,安全風險不斷累積。
應對 AI 風險,平衡技術效率與社會影響,關鍵在于明確社會與政府的分工,樹立“ 創新有邊界、應用有紅線” 的理念——社會應鼓勵 AI 創新,做“ 加法” ;政府應加強 AI 監管,對 AI 應用做“ 減法” ,而非“ 乘法” 。社會層面,企業、科研機構與個人應積極探索 AI 的合理應用,推動技術創新,同時堅守倫理底線,主動承擔社會責任,不盲目追求技術突破而忽視安全風險。政府層面, “做減法” 并非禁止 AI 發展,而是對 AI 應用的范圍、速度、權限進行克制性約束:明確 AI 應用的負面清單,禁止 AI 進入完全自主的致命武器、社會信用評分系統等高危領域;要求高風險 AI 應用必須通過可驗證的安全評估,類似新藥上市前的臨床試驗;限制 AI 在關鍵基礎設施、司法等領域的自主決策權限,保留人類的最終審計與控制權。而“ 做乘法” 的陷阱,恰恰是政府盲目推廣、補貼、強制部署 AI 應用,將技術應用視為“越廣越快越好” ,最終導致隱私泄露、算法歧視、社會信任瓦解等不可逆的后果。
要從根本上防范 AI 的文明級風險,還需要建立全球協同的治理體系,達成普遍的國際共識。首先,應明確 AI 研發與應用的紅線:禁止研發無人類有效控制的通用人工智能,禁止自主武器系統具備獨立目標選擇與攻擊能力,禁止通過 AI 系統進行大規模社會信用評級與行為操縱。其次,應建立強制安全措施:任何超過一定算力或能力的 AI 模型,必須通過可驗證的形式化安全驗證,內置不可篡改的終止開關與緊急熔斷機制,確保人類在任何情況下都能控制 AI 。再次,應建立類似 IAEA 的全球 AI 監管機構,賦予其視察、制裁、信息共享的權力,制定全球統一的 AI 安全標準與對齊研究路線圖。最后,應建立 AI 研發暫停與評審機制,當任何公司或國家宣稱接近 AGI 時,觸發全球強制暫停,進行聯合風險評估,避免因盲目研發而引發失控風險。
從短期來看(1-2 年),應呼吁聯合國、G7 、G20 等國際組織將“AI 生存性風險” 列為最高級別議題,推動主要 AI 實驗室簽署可驗證的暫停訓練協議,增加公共資金對 AI 安全與對齊研究的支持 ,將安全研發投入占比提升至 10- 20% 。中期來看(3-5 年),應談判并簽署《國際人工智能安全公約》,建立全球 AI 安全數據中心,監控超大算力集群的使用情況,各國設立 AI 安全部長級職位,強制重大 AI 項目通過倫理與安全審查。長期來看(5- 10 年),應將 AI安全與對齊納入基礎科學教育與工程倫理必修課,發展“ 防御性 AI 安全技術” ,在技術層面實現價值鎖定,讓核心 AI 系統在數學上證明其不會危害人類。
核武器時代,人類學會了通過威懾來避免自我毀滅,但卻沒有學會放棄傲慢與貪婪;AI 時代,人類需要學會的不是放棄技術進步,而是放棄對技術的盲目崇拜,保持對未知風險的敬畏。文明的存續從來不是自動獲得的權利,而是每一次重大技術選擇的結果。AI 本身沒有善惡,但其發展的方向與邊界,卻決定著人類文明的未來。
我們呼吁,每一位科學家都應將 AI 安全放在首位,優先開展安全研究,拒絕參與紅線項目;每一位企業家都應摒棄“利潤至上” 的理念,將文明存續的概率置于商業利益之上;每一位政治家都應認清 AI 監管的重要性,將 AI 監管視為下一代人的“ 核不擴散條約” ,堅守“做減法” 的監管原則,不盲目推動 AI 應用擴張;每一位公眾都應提高風險意識,打破“AI 烏托邦” 與“硅碳共存” 的迷思,主動關注 AI 風險,傳播相關理念,推動形成全社會共同防范 AI 風險的共識。
人類文明的進步,從來都是在創新與約束的平衡中前行。AI 是人類智慧的結晶,理應成為推動文明進步的工具,而非摧毀文明的隱患。我們不是要阻止智能的誕生,而是要確保誕生的智能依然認人類為伙伴,而非障礙;我們不是要放棄技術創新,而是要讓技術創新在安全、有序的邊界內前行。唯有如此,才能讓 AI 真正服務于人類文明的永續發展,讓警惕走在智能爆發之前,讓文明的光芒在科技的加持下,照亮更遠的未來。
作者簡介:
周曉華,重慶大學工學碩士,北京安證通信息科技股份有限公司創始人、董事長兼CEO,作為中國數字信任與電子簽章領域資深專家,他曾主導編寫團體標準《電子印章互通互認服務平臺接入要求》,深諳“無規則則無信任,無標準則無秩序”的行業底層邏輯。作為科技行業的實踐者與反思者,他具有強烈的社會責任感,始終高度關注人類社會的健康發展。在數字化轉型浪潮中,他持續倡導“技術向善”的發展理念,主張通過制度與技術的雙重約束,確保人工智能等前沿科技在安全可控的邊界內發展。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.