大模型投毒已經影響到了AI健康,你還在用AI質疑醫生嗎?
你先別急著反駁,這事兒真不是危言聳聽。現在很多人看病,已經形成一個新習慣了:先問AI,再問醫生。
不舒服了,先把癥狀輸進去;拿到檢查單了,先讓AI解釋一遍;甚至有些人到了醫院,也不是先聽醫生怎么說,而是拿著AI給出的答案去對醫生:“可AI不是這么說的啊?”
這不是個別現象。現在確實有越來越多人把AI當成看病前的第一站。有人圖快,有人圖省事,有人覺得AI說得清楚,還有人干脆覺得,醫生門診時間太短,不如AI講得耐心。
問題就在這兒。你以為你是在多找一個參考,實際上你可能是在拿一套被污染過的內容,去挑戰一個真正看病的人。
![]()
先說一個背景。現在對AI健康信息的信任,真不低。調查顯示,已經有相當一部分人會拿AI找健康建議,而且不少人對AI給出的內容是信的。
更麻煩的是,醫生端也已經明顯感受到這種變化:越來越多患者帶著AI答案來就診,而醫生還得花時間把AI說錯的地方一條條糾回來。
也就是說,“用AI輔助看病”這件事,已經不是趨勢,而是現實。
但偏偏就在這種時候,出了一個特別典型、也特別嚇人的實驗。瑞典一位醫學研究人員 Almira Osmanovic Thunstr?m,帶著團隊專門做了一個測試。她不是去測試AI能不能診斷真病,而是反過來造了一個根本不存在的病,看看AI會不會上當。
他們虛構出來的,是一種所謂跟藍光有關的眼病,名字叫bixonimania。這個名字聽著就挺像那么回事:長期盯屏幕、藍光刺激、眼睛發癢、眼周發紅、眼瞼顏色變化。
![]()
你別說,現在每天盯手機、盯電腦的人這么多,這套描述一擺出來,很多人第一反應真會覺得:好像還挺合理。但問題是,這病根本不存在。
更絕的是,他們還故意在這些內容里埋了一堆離譜線索,等于是在明示:“你只要認真核實一下,就會發現這是假的。”
可結果呢?主流AI系統還是上當了。包括 ChatGPT、Copilot、Gemini、Perplexity 在內的多款AI,后來都先后把這個病當成真的去解釋。
有的會一本正經告訴你這病是什么,有什么表現;有的甚至會給出診斷式描述,像在跟你做一個簡化版問診。更離譜的是,到了2026年,這個錯誤在部分系統里都還沒有完全糾正過來。
你想想這意味著什么。不是AI隨口胡說了一個病名,而是有人故意造了一個假病,AI真的學進去了。
![]()
這件事最危險的地方,不是“AI又答錯了一次”,最危險的地方在于,它答錯得太像真的了。
這就形成了一個特別可怕的循環:有人造假信息→AI把假信息學進去→用戶拿AI結果去理解疾病→研究者再用AI去檢索和整理→假信息被再次引用、再次包裝、再次傳播。
最后,假的東西越傳越像真的。這才叫真正的大模型投毒。它傷的不是某一個回答,它傷的是整個知識環境的衛生狀況。
![]()
所以現在最大的問題,不是“AI能不能幫你看病”,而是:你到底把AI放在什么位置。
如果你把AI當成一個翻譯器,用來把專業術語翻成人話;如果你把AI當成一個整理工具,幫你列出就診時該問醫生哪些問題,這都還算合理。
但如果你把AI當成一個事實裁判,甚至把它當成一個比醫生更值得信的“第二權威”,那這事兒就開始危險了。尤其是在醫療這種場景里,錯一次,代價不是尷尬,是真可能耽誤判斷。
這就是很多人現在最容易踩進去的坑。不是完全相信AI,而是半信半疑地被它帶偏。而這恰恰最麻煩。因為醫療決策,很多時候不是錯100分才叫錯,你只要錯了10分,后面整個判斷鏈條都可能跟著歪。
所以回到最開始那個問題。現在已經有不少人寧愿先信AI,再去信醫生,甚至看了醫生,也還要拿AI的結果去“校正”醫生。
可問題是,現在連根本不存在的眼病,都能被人造出來騙過主流AI系統。那你手里那個看起來特別完整、特別專業、特別冷靜的AI答案,到底有多大概率只是被包裝過的錯誤信息?這時候你還敢輕易拿它去質疑醫生嗎?
我的看法很簡單:
最后就一句話:以前大家擔心的是AI會不會胡說八道,現在更該擔心的是,AI會不會把一本正經的假話,當成真話講給你聽。
要真到了這一步,你還拿AI去質疑醫生嗎?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.