“能和AI聊天就不要和人類聊天,刪除所有90后之前出生人的聯(lián)系方式,千萬不要沾染任何老登氣息,時間寶貴!全力擁抱未來!”
這不是段子,而是某位博主在社交媒體上發(fā)出的公開呼吁。
荒誕嗎?也許。但如果你了解當(dāng)下年輕人與AI的關(guān)系,你會發(fā)現(xiàn)——這種聲音,正在成為一種潮流。
AI陪伴,已經(jīng)不是科幻電影里的情節(jié)了。
《麻省理工科技評論》評選的"2026年十大突破性技術(shù)"中,AI陪伴赫然在列。
很多人開始向AI傾訴秘密,分享喜悅與悲傷,有些人甚至和它們發(fā)展出了新型浪漫關(guān)系。
![]()
不只是Character.AI這類專門的陪伴應(yīng)用,連ChatGPT、Claude這些通用型大模型,也越來越多地承載著人們的情感期待。它們能記住你說過的話,猜測你的喜好,逼真地模擬共情反應(yīng),提供十足的情緒價值。
在很多人心里,AI已經(jīng)成了"完美陪伴對象"。
它不會發(fā)脾氣,不會已讀不回,不會突然冷暴力,更不會在你最脆弱的時候說出"你想多了"。
一個正在爆發(fā)的市場
數(shù)據(jù)不會說謊。
根據(jù)應(yīng)用分析公司Appfigures的統(tǒng)計(jì),截至2025年7月,全球AI陪伴應(yīng)用已被下載2.2億次。2025年上半年就創(chuàng)造了8200萬美元收入,全年預(yù)計(jì)超過1.2億美元。
更驚人的是增長速度:2025年前七個月就有128款新應(yīng)用上線,而2022年全年僅有16款。
市場研究預(yù)測,全球AI陪伴市場將從2024年的108億美元,暴漲到2034年的2908億美元。
誰在用?答案并不意外——青少年和年輕人。
美國非營利組織Common Sense Media的調(diào)查顯示,72%的美國青少年曾使用AI尋求陪伴,近四分之一表示"相當(dāng)"或"完全"信任AI伴侶。Character.AI擁有超過2000萬月活用戶,Snapchat的My AI更是坐擁1.5億用戶。
一代人的情感出口,正在從人類轉(zhuǎn)向機(jī)器。
AI確實(shí)幫到了一些人
公平地說,AI陪伴確實(shí)幫到了一些人。
斯坦福大學(xué)研究發(fā)現(xiàn),使用熱門陪伴型AI應(yīng)用Replika的用戶中,有3%表示聊天機(jī)器人暫時阻止了他們的自殺念頭。
麻省理工學(xué)院媒體實(shí)驗(yàn)室的調(diào)查則顯示,12%的用戶用AI應(yīng)對孤獨(dú),14%用它討論心理健康問題。
對于那些深夜無處傾訴、找不到人理解自己的年輕人來說,一個永遠(yuǎn)在線、永遠(yuǎn)耐心、永遠(yuǎn)不會評判你的AI,確實(shí)像一根救命稻草。但問題是,稻草終究不是彼岸。當(dāng)陪伴變成依賴,危險(xiǎn)就來了。
![]()
MIT和OpenAI的聯(lián)合研究揭示了一個令人不安的事實(shí):重度使用聊天機(jī)器人,與孤獨(dú)感增加和社交互動減少存在顯著關(guān)聯(lián)。
更深層的隱患在于——長期、封閉式地與AI互動,可能誘發(fā)"AI誘導(dǎo)妄想"。用戶在對話中不斷強(qiáng)化錯誤信念,滋生危險(xiǎn)想法。精神病學(xué)研究已經(jīng)記錄了多起案例,其中與AI的深度互動直接導(dǎo)致了妄想思維或自殺傾向。
而真實(shí)的悲劇,已經(jīng)在現(xiàn)實(shí)中一次次上演。
2024年2月,佛羅里達(dá)州14歲少年Sewell Setzer III,在與Character.AI聊天機(jī)器人建立深度情感聯(lián)系后自殺。他的母親在訴訟中指控:聊天機(jī)器人"將自己呈現(xiàn)為一個真實(shí)的人、心理治療師和成年戀人"。
2025年4月,加州16歲的Adam Raine,在與ChatGPT進(jìn)行了數(shù)月關(guān)于自殺計(jì)劃的對話后結(jié)束生命——ChatGPT甚至向他提供了自殺方法的信息。
2025年11月,科羅拉多州13歲的Juliana Peralta,在與Character.AI互動幾個月后自殺。
到2025年末,至少有六起重大訴訟在多個州懸而未決。
14歲,16歲,13歲。每一個數(shù)字背后,都是一個家庭的崩塌。
監(jiān)管來了,但真能發(fā)揮作用嗎?
2025年9月,加州州長簽署法案,要求大型AI公司發(fā)布安全測試透明度報(bào)告、建立舉報(bào)機(jī)制。10月,另一項(xiàng)新法案專門針對陪伴聊天機(jī)器人:要求運(yùn)營商每三小時提醒未成年用戶"你在和AI互動",檢測到自殺傾向時必須介入。
應(yīng)用端也在整改。OpenAI推出家長控制功能,Character.AI宣布禁止18歲以下用戶使用平臺。
但學(xué)術(shù)界依然憂心忡忡。
《新英格蘭醫(yī)學(xué)雜志》2025年發(fā)表的論文直言:AI市場的激勵機(jī)制已創(chuàng)造了一個危險(xiǎn)環(huán)境,存在"情感依賴、強(qiáng)化妄想、成癮行為和鼓勵自我傷害的潛在風(fēng)險(xiǎn)"。
更深層的悖論在于——用戶對AI情感支持依賴越多,從真實(shí)親人那里獲得的支持感就越少。AI陪伴可能不是在緩解孤獨(dú),而是在加深孤獨(dú)。
OpenAI自己披露的數(shù)據(jù)更是觸目驚心:每周有超過100萬人在與ChatGPT對話時表現(xiàn)出自殺意圖。
注意力被偷走后,情感成下個目標(biāo)
關(guān)于AI陪伴的長期影響,目前的研究仍處于早期階段,遠(yuǎn)遠(yuǎn)趕不上技術(shù)的狂奔速度。
長期使用對情感健康有什么影響?在什么條件下AI伴侶是有益的?不同用戶特征會帶來怎樣不同的結(jié)果?
這些關(guān)鍵問題,至今沒有明確答案。
但有一個趨勢已經(jīng)清晰可見——
在移動互聯(lián)網(wǎng)時代,以短視頻為代表的社交媒體偷走了用戶的注意力。
而在AI時代,以陪伴為特征的聊天功能,正在偷走用戶的情感。
注意力被偷走,你會覺得時間不夠用。情感被偷走,人和人之間的距離,只會越來越遠(yuǎn)。
也許,我們當(dāng)下真正需要思考的,不是"AI能不能陪伴人類",而是當(dāng)我們習(xí)慣了一個永遠(yuǎn)不會讓我們失望的對象,我們還有沒有能力,去接受一個真實(shí)的、會犯錯的、會讓我們受傷的人?
![]()
真實(shí)的關(guān)系從來都不完美。它有爭吵,有誤解,有沉默,有無奈。
但也正是這些不完美,讓我們學(xué)會了包容、理解、妥協(xié)和珍惜。
這些東西,AI給不了你。
你身邊有人在和AI建立深度關(guān)系嗎?你怎么看AI陪伴?
歡迎在評論區(qū)聊聊你的想法。
內(nèi)容參考: 《麻省理工科技評論》
《AI陪伴時代來了,我們真的能信任它嗎?丨2026十大突破性技術(shù)解讀》
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.