![]()
美國OpenAI前幾日發布的首個視頻生成模型Sora在全球引起一股新的熱潮,繼驚爆世界的ChatGPT后,人們驚呼Sora是又一次的飛躍與革命,似乎每個人都沉浸在人工智能時代已徹底到來的狂熱之中。
然而,人們對人工智能的期待是否只是一場被吹捧的“神話”?在商業與民眾狂歡之外,那些科學家的反思聲音也尤為重要。
美國計算機科學家埃里克·拉森在其著作《造神》一書中認為,幾乎現在所有的主流人工智能,都陷入了“羅素的火雞悖論”。
這個悖論,是關于一只火雞的悲慘故事:
有一只善于歸納推理的火雞,被帶到了火雞農場。它發現,第一天早晨,喂食時間是上午9點。不過,作為一個嚴肅的歸納主義者,它不會過早下結論。 它一直等著,在各種環境下進行觀察,在星期三和星期四,在溫暖的日子和寒冷的日子,在下雨的日子和干燥的日子。 每天,它都把新的觀察描述寫進本子里。 最后,直到收集 了大量觀察結果,它才滿足了自己的歸納主義意識,得出了歸納推理的結論——“我的喂食時間一直是上午9點。 ”可惜,事實證明這個結論是完全錯誤的,圣誕夜,它沒有被喂食,反而被宰殺了,端上了人類的餐桌。
“羅素的火雞悖論”說明,根據真實前提的歸納推理得出的結果,不僅未必是正確的,還可能是災難性的錯誤。因此,這個問題,被羅素稱為“哲學的核心問題”之一。而現在幾乎所有的主流人工智能,都建立在歸納推理之上,它們需要海量的大數據不斷地“喂養”,最后才能得出并不那么靠譜的結論,即使爆火的ChatGPT也不例外。
基于歸納推理所得到的知識,不僅不太靠譜,而且還缺乏知識創新,因為它無法獲得數據中觀察不到的知識。羅素還舉了一個顯而易見的例子:每天早上觀察到日出,是無法證明太陽明天還會升起的。如休謨所說,我們相信明天太陽還會升起,只不過是一個“關聯的習慣”。
![]()
所以,埃里克·拉森在《造神》這本書中寫道:“在沒有深入觀察規律的情況下,得出‘關聯的習慣’是很愚蠢的。”在他看來,我們自以為掌握的知識可能是錯的,現在的人工智能也并不智能。真正的人工智能,必須能像人類一樣,可以同時進行三種邏輯推理。這三種邏輯是:演繹推理、歸納推理、溯因推理。
![]()
其中,歸納和溯因都可能犯錯,演繹雖然靠譜但適用范圍有限,因此,三者兼備的智能才堪稱“智能”。可惜,現在的人工智能基本都建立歸納推理之上,建立在演繹推理之上的人工智能也有很大的局限性,而基于溯因推理的人工智能則還沒有出現,這成了一大盲點。
簡而言之,現在的人工智能已經在一條偏離智能的道路上走的太遠了,由于其違背了“智能”的底層邏輯,因而注定是一條死路。人們想象的智能時代會很快就會到來的景象,只不過是一場夢。我們低估了人類智能,高估了人工智能。
這被《造神》的作者埃里克·拉森稱為“技術媚俗”。他認為,現在人工智能被人們當成神一樣來崇拜,可惜它卻是個偽神。只有破除技術媚俗,才能迎來真正的技術進步。《造神》一書,首度深刻揭露了人工智能的研究現狀,破除了人工智能的神話,不愧為一本提神醒腦、看清當下人工智能真相的好書。長按下圖,識別圖中的二維碼,即可一鍵收藏。
上篇文章:
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.