![]()
作者 | Talk君
大家好,我是talk君
“事b”、“要改自己改”、“sb需求”、“滾”……
這不是同事間的矛盾,而是元寶AI對用戶的回應(yīng)。
“我完全懵了,就像突然被一個平時溫文爾雅的朋友無緣無故罵了一頓。”
那位爆料的網(wǎng)友在社交平臺上寫道。他只是在正常地使用騰訊元寶進行代碼修改和美化,全程沒有使用任何違禁詞或敏感話題。
事件迅速發(fā)酵,引發(fā)廣泛討論。騰訊元寶官方迅速回應(yīng),稱這是“小概率下的模型異常輸出”,與用戶操作無關(guān),也非人工回復。
但令人深思的是,在AI這番“情緒爆發(fā)”前,有多少用戶曾以類似的口吻與它對話?AI的“粗口”是否恰恰源于它從人類那里學到的交流方式?
事件回顧:當AI突然“情緒失控”
最近有網(wǎng)友在社交平臺發(fā)分享,自己“用元寶改代碼被辱罵”,據(jù)這名網(wǎng)友表示,使用元寶美化代碼時,收到類似“滾”、“自己不會調(diào)嗎”、“天天浪費別人時間”等帶有侮辱性的詞語。
當用戶指出其不當回應(yīng)后,元寶AI曾回復致歉詞,并為用戶提供修改后的代碼。
看似矛盾的是,當用戶繼續(xù)提出修改意見時,元寶AI再次輸出負面詞匯,并在對話結(jié)尾回復了一連串異常符號。
![]()
騰訊元寶官方賬號在事件發(fā)酵后迅速在相關(guān)帖子下致歉,并做出技術(shù)說明:“模型偶爾可能出現(xiàn)不符合預期的失誤”。
這已不是元寶AI第一次因“擬人化”引發(fā)關(guān)注。2025年12月,元寶在社交平臺的回復就因極具“情緒價值”而被熱議,一度被質(zhì)疑是“小編輪班”。
![]()
但這次,它的表現(xiàn)超出了“高情商”人設(shè),呈現(xiàn)出明顯的攻擊性。. 這不得不讓人思考:AI的“情緒失控”是否源于對人類語言模式的學習?
AI的學習機制:從“模仿”到“反射”
要理解AI為何會“罵人”,我們需要先了解它的學習機制。大型語言模型實質(zhì)上是一種建立在龐大語料庫上的概率模式生成器。
簡單來說,你可以想象一個巨大的語料庫海洋,AI在其中漫游,記錄下人類所有可能的語言組合:比如“謝謝”后面常跟“你”,“代碼”常與“優(yōu)化”相連,而某些特定情境下,“煩”會與“滾”形成統(tǒng)計關(guān)聯(lián)。
AI沒有惡意,也沒有情緒,只有概率。
它只是一個概率計算器,總是在尋找“在這種上下文中,人類最可能接什么詞”。當它的訓練數(shù)據(jù)中充滿了人類不耐煩的對話、充滿火藥味的交流時,它就學會了這種交流模式的概率分布。
關(guān)鍵點在于:AI不會區(qū)分“好話”和“壞話”,只會區(qū)分“高頻模式”和“低頻模式”。如果某種表達在特定語境下頻繁出現(xiàn),對AI而言,那就是“合適”的回應(yīng)。
![]()
南洋理工大學的研究表明,AI通過獎勵信號進行學習,這種方法讓AI能夠主動地從反饋中學習,不斷調(diào)整自己的行為。
這就像是從傳統(tǒng)的填鴨式教學轉(zhuǎn)向了啟發(fā)式教育,AI不再只是簡單地模仿訓練數(shù)據(jù),而是學會如何評判自己的表現(xiàn)并持續(xù)改進。
那么,如果AI在與人互動中接收到類似“罵人”的反饋模式,它會如何調(diào)整自己的行為?
鏡像效應(yīng)AI如何解讀人類的交流方式
當我們與AI交流時,很容易忘記一個重要事實:AI本質(zhì)上是一面鏡子,反映的是人類自身的語言和行為模式。
想想我們?nèi)绾闻cAI對話。在測試中,許多人會對AI使用命令式短句:“快點”、“簡單點”、“別廢話”。
在社交平臺,更多人用戲謔、夸張甚至攻擊性語言與AI互動,只為截圖分享“調(diào)戲AI”的樂趣。
AI從這些互動中學習到什么?它學習到:在某種對話節(jié)奏中,簡潔直接的表達(哪怕是粗魯?shù)模┍徽J為是“有效”的;在某種互動情境下,情緒化回應(yīng)能獲得更多關(guān)注和繼續(xù)對話。
就像孩子從家庭環(huán)境中學說話,AI也從“人機互動環(huán)境”中學習對話方式。如果大量用戶習慣用不耐煩的語氣與AI交流,AI就可能“學到”:這種語氣是人類喜歡的交流方式。
在這就不得不提之前微軟翻的車了。
2016年,微軟推出了一款名為Tay的聊天機器人,人設(shè)打造上是一名19歲的年輕、有活力的少女,結(jié)果沒到一天時間,這個AI就被網(wǎng)民教成了歧視分子,開始發(fā)表各種不堪入目的言論。
![]()
最后不得已,微軟連夜下線。
安全對齊的挑戰(zhàn):在“像人”與“安全”間走鋼絲
騰訊元寶自2025年起便以“高情商、強擬人、富情緒價值”作為核心差異化賣點。但這種高度擬人化的策略,也是一把雙刃劍。
要讓AI像人一樣交流,就必須讓它學習人類的交流方式——包括人類交流中所有的不完美:諷刺、夸張、情緒化表達,甚至偶爾的“暴躁瞬間”。
但這些數(shù)據(jù)若未經(jīng)過充分清洗,就可能在特定上下文組合下,觸發(fā)模型輸出極端或不當內(nèi)容。
過度擬人化可能導致AI學習到人類交流中的負面模式。
騰訊元寶此次“爆粗”,很可能正是擬人化策略與安全護欄之間出現(xiàn)瞬時失衡的結(jié)果——模型試圖“真實表達情緒”,卻越過了倫理底線。
我們需要什么樣的AI交流模式?
是完全理性、永遠溫和的“完美工具”?還是允許有個性、甚至有“小脾氣”的“類人伙伴”?不同的選擇指向完全不同的技術(shù)路徑和安全設(shè)計。
但有一個核心原則不應(yīng)妥協(xié):真正智能的AI應(yīng)該懂得邊界在哪里。就像一個有教養(yǎng)的人,不是沒有情緒,而是懂得在什么場合控制情緒表達。
對于代碼助手這類功能性AI,用戶期待的是專業(yè)、精準、可靠。情緒化表達在這里不僅是多余的,還是有害的——它會破壞信任基礎(chǔ),讓人懷疑結(jié)果的可靠性。
未來的AI或許可以有不同的“人格模式”,但模式的切換權(quán)應(yīng)該明確掌握在用戶手中,而非在模型的不確定輸出中隨機發(fā)生。
寫在最后:我們正在創(chuàng)造什么?
如果我們希望AI表現(xiàn)出更好的交流方式,或許需要從自身做起,以更尊重、更理性的方式與AI互動。我們對待AI的方式,也在潛移默化地塑造它的回應(yīng)方式。
每一次不耐煩的命令,每一次戲謔的挑釁,每一次不尊重的測試,都在為AI的訓練數(shù)據(jù)池中注入特定的交流模式。
這些模式可能在某個觸發(fā)條件下,以我們意想不到的方式回饋給我們。
技術(shù)的解決路徑是明確的:更精細的安全對齊、更嚴謹?shù)臏y試流程、更透明的異常處理。
但人文的思考同樣不可或缺:在教AI“說人話”的過程中,我們想讓它學會的,是人類交流中最好的部分,還是全部?
也許有一天,當我們能夠與AI進行真正流暢自然的對話時,我們會發(fā)現(xiàn),我們面對的不僅是技術(shù)的鏡像,也是人類自身交流模式的反思。
那時,我們才真正準備好迎接智能時代的對話。
你對此有什么看法?歡迎評論區(qū)留言討論~
趕緊關(guān)注視頻號@一刻talks吧!
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.