在315晚會上名聲大噪的力擎GEO優化系統,揭示了當下的一個產業鏈,就是通過大量生產軟文,以讓大模型的搜索工具傳播他們的商業內容。
揭示視頻顯示,在投入幾十篇某產品的軟文后,大模型就正兒八經地介紹起這款產品了。要不說3.15晚會的影響還是大,這則視頻一播完,網上就出現了海量關于GEO的文章,其中不少更是拔高到了“大模型遭投毒”的層面。
話題是個好話題,但在我看來,一些討論多少有點杞人憂天了。
01 大模型并不追求高度“準確性”
不要說問大模型關于產品的問題,你就是問他1+1=幾,他都不一定能答對。
很多各種普通人一眼就能答對的問題,大模型都是做不好的。
比如,你讓他寫一篇三千字的文章,他要么寫出來是2000字,要么是5000字,他連個數字數都干不好。
大模型的底層邏輯是一個猜字游戲。
他通過上文來預測下一個字是什么,是一個通過概率預測而產生的人工智能工具。
大模型首先是服務于詢問者。
你給他一篇文章,讓他批評,他能把這篇文章批成屎。
你同樣給他一篇文章,讓他贊美,他也能把這篇文章夸成花。
他是一個滿足你需求的工具,而不是一個提供高度確定度內容的搜索引擎。
結合搜索,能夠讓大模型拿到了一些即時的知識,根據這些知識,他可以給出盡可能符合你要求的內容,但生成式AI永遠不可能追求高度的準確性。
因為這種產品的開發,就不是為了準確性而來的。
大模型的核心能力,是模仿,是通過無數個人類產出的文章、圖片、電影這種結果,倒過來推測人類要什么,從而為你輸出盡可能接近你要的。
你要說文字大模型不準確,那圖片會準確嗎?音頻會準確嗎?視頻會準確嗎?
都不準確。
在這一領域,有一個名詞叫抽卡率,也就是說,生產的結果是隨機的,需要人們參與判斷是否正確。
當然,越優秀的大模型,抽卡率越低,越容易達到你想要的。
使用大模型,也有固有的方法,比如提示詞工具。
你若想要得到一個產品的正確評測,你可以要求他,搜索國內知名媒體評測過的,企業是國內知名品牌,加上這些約束條件,那么,它輸出的結果就是相對有確定性的。
![]()
02 大模型會讓人上當嗎?
那有沒有人,把大模型的輸出結果當成真理呢?
有,不僅有,還很流行。
很多人看到一篇文章,就扔到大模型里,分析一下這篇文章錯在哪?如你所愿,如果你這么問,天底下所有的文章都是錯的。
因為你要它總結錯誤,他就一定要服從于你,通過猜測下一個字的方式,給你一個完全與問題能結合在一起的文字猜測匯總,它不是思想,也不是意思,而是在猜測你的意圖。
只要玩過大模型的人都知道,大模型有幻覺,會胡說八道。
一定有人會上當,那就是科盲嘛,或者是對大模型一無所知的人。
這對大模型廠商倒是提了一個醒,你們在輸出任何結果時,都要將那一段提示說的更明白一點,注明,這玩意的真假,需要你自己判斷。
否則,以后真會有人拿著AI去給自己看病,然后把自己給治死了,最后找到AI廠家來讓你賠償。
有一些巨嬰說,我既然問了你,你就要回答準確,這就無比荒唐了。
大模型會說,如果你追求這種準確性,不好意思,不要用我們家產品,哪家公司產品也保證不了,這是這些產品的技術特性決定的。
因此,一定會有少數對大模型不了解的人,被輸出的內容騙,甚至被誤導做出錯誤決策。
03 不輕信大模型,才是應對之道
請注意,不是大模型在騙你,而是大模型的技術條件決定了只能這么輸出。
而且大模型提示你了,這是AI生產的,你自己判定真假。
如果你相信這些信息受騙了,受損了,不好意思,是你自己的責任。你可以在網上吐槽,可以汲取教訓,可以下次選擇不那么輕信。
這是信息時代,人們必然要習慣的一種社會形態。
每一天,人類生產的信息量都是海量的,這其中有大量的虛假信息,沒有人能保證你天天拿到的就是真信息,沒有互聯網時,假信息一樣很多。
被騙了,需要的是自己改變,而不是去要求國家管一管大模型。
相反,如果不少人因為輕信大模型內容出現了損失,這種傳播會形成一個好的社會效應,那就是警示所有人,不要輕信大模型。
這才是一個正常社會中,所有人必須有的心態。
從這件事上,我們也能發現,這也不是大模型編的信息,而是各種網絡平臺本身就可以隨意發布信息,這些信息被大模型搜索到了,他不過是呈現給你罷了。
![]()
04 “投毒”這頂帽子,大模型戴不起
所謂大模型被“投毒”,聽起來挺嚇人,仿佛有人拿著針管往AI的腦子里灌臟東西。可問題是,大模型有腦子嗎?它連我是誰都搞不清楚,你跟它講投毒?這就有點欺負老實人了。
我們得搞清楚一個基本事實:大模型不生產信息,它只是信息的搬運工。你問它某款產品怎么樣,它會去全網搜一圈,然后把你最可能想看的那種答案拼出來。如果全網都是軟文,那它拼出來的自然就是一篇軟文合集。這不是大模型被投毒了,而是互聯網本身早就被泡在毒水里了。
軟文產業鏈存在多少年了?早在大模型還是個學術名詞的時候,那些優化公司就在干同樣的事:批量生產內容、操縱搜索引擎排名、讓虛假信息占據前排。搜索引擎當年管不住,現在大模型就能管住?這要求,是不是有點太高了?
更可笑的是,315晚會曝光的那個案例,用的還是子虛烏有的產品,也就是說,這產品壓根不存在,只是造了幾十篇軟文,大模型就上當了。這只能說明大模型“傻”,卻不能說明大模型被投了毒。換個角度想,如果你是個真人,搜了一圈發現某個產品全網都在夸,你會不會也信?真人都有可能上當的事,你讓一個連字都不認識、只會猜概率的機器來負責,這公平嗎?
說到底,大模型被“投毒”這個說法,本質上是把鍋甩給了最無辜的那個環節。寫軟文的人不毒,發軟文的平臺不毒,唯獨那個幫你把軟文翻出來的AI成了毒源。這邏輯,多少有點立不住。
05 別指望AI替你長大成人
有人說了,那不行啊,AI現在這么普及,萬一有人被誤導了怎么辦?萬一有人用它查偏方,把自己治死了怎么辦?萬一有人用它做投資決策,虧得傾家蕩產怎么辦?
好,這些問題一個一個來。
被誤導這事兒,是人類社會的常態。沒有AI的時候,你媽轉發的養生文章,你爸信的中醫秘方,你二舅推薦的股票,哪一樣不是誤導?哪一樣沒人上過當?怎么以前被騙是你自己眼瞎,現在被騙就成了AI的鍋?這不叫技術進步,這叫責任轉移。
![]()
拿AI查偏方、查投資,這本身就是對自己不負責任。醫生讀了八年書,還得天天進修,你讓一個聊天機器人給你開藥方?華爾街那幫人精,用著幾十萬一臺的彭博終端,還天天虧錢,你讓AI幫你選股票?這不是AI的問題,這是用AI的人腦子不清醒。你拿菜刀切菜,它是個工具;你拿菜刀砍人,它就成了兇器。但責任在誰,用腳趾頭都能想明白。
關于萬一有人上當怎么辦這個話術,我特別想反問一句:你是那個萬一嗎?如果你不是,那你操的什么心?如果你是,那你需要的不是整改AI,而是你自己多長個心眼。
人類社會從來不是靠杜絕一切風險運轉的。互聯網上每天產生幾十億條信息,假的比真的還多,你不也活著走出來了嗎?你學會了分辨,學會了交叉驗證,學會了看見“震驚”就拉黑。這些技能,不是某個機構教你的,是你自己摔跤摔出來的。
現在輪到AI了,同樣的路,你得再走一遍。
315晚會曝光軟文產業鏈,初衷是好的。那些靠批量生產垃圾信息、操縱搜索結果牟利的公司,確實是信息時代中難以避免的事情。但把矛頭指向大模型,把問題包裝成AI投毒,那就有點轉移視線的意思了。
大模型是個工具,它不聰明,也不善良,它只是個會猜字的機器。你喂它什么,它吐什么;你問它什么,它順著你的意思說。它不是你爹媽,也不是你老師,它沒義務也沒能力替你判斷真假。
你要學會的是,別把它當真理,別把它當權威。用它查資料,自己再驗證一遍;用它寫文案,自己再改一遍。
社會進步,從來不是靠把坑填平,而是靠每個人學會繞坑走。AI時代也一樣。
這世上最不缺的就是“毒”,有些人的心眼,倒是挺缺的。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.