无主之地2配置高吗|看真人裸体BBBBB|秋草莓丝瓜黄瓜榴莲色多多|真人強奷112分钟|精品一卡2卡3卡四卡新区|日本成人深夜苍井空|八十年代动画片

網易首頁 > 網易號 > 正文 申請入駐

“AI 會拿走我的工作嗎?” 教父 Hinton 這次只回了一個字:會

0
分享至

20 年內 AI 將勝任所有電腦智力工作,我們根本沒準備好。

編譯 | 王啟隆

出品丨AI 科技大本營(ID:rgznai100)

過去幾年里,AI 教父 Geoffrey Hinton 最常被外界記住的,是他不斷對 AI 風險發(fā)出警告:離開 Google、公開談更強模型的危險、提醒人們不要把能力躍遷誤當成純粹的產品升級。

在 3 月加拿大多倫多最新的公開對談里,他把那條線又往前推了一步。真正讓他反復回到的一件事,已經不只是“模型會不會越來越強”,而是:當 AI 開始進入工作、教育、醫(yī)療、陪伴關系乃至軍事用途時,公司、政府和整套政治系統(tǒng),到底有沒有準備好承接后果。


這也是這場對話最值得看的地方。Hinton 當然還是在解釋神經網絡、反向傳播和語言模型到底怎么工作,也還是會用他熟悉的方式,一層一層把技術講清楚;但另一邊,他說得越來越直白:當主持人 Amber Mac 問他 “AI 會不會拿走我的工作” 時,Hinton 只回了一個詞:“會?!?/strong>

而在那個短得幾乎像玩笑的回答背后,他真正展開的,是一整套更難回答的問題,并為新時代 AI 的運作機制進行了一次堪稱“知識掃盲”的詳細講解。

要點速覽

  • “我以前很喜歡 ChatGPT,但我準備轉去用 Claude,因為 Sam Altman 在道德上的彈性,對我來說有點太大了?!?/p>

  • 在未來二十年內,通用型人工智能很可能可以勝任幾乎所有人類在電腦上完成的智力工作。

  • 在醫(yī)療和教育這類“彈性市場”里,AI 更可能帶來的是服務能力的擴張,而不是簡單取代。

  • 很多人以為現(xiàn)在的大模型還是在“預測下一個詞”,但早就不是了。今天的系統(tǒng)更像我們生成語言的方式。

  • 理解一句話這件事,實際上更像是蛋白質折疊,而不是把一種語言翻譯成另一種內部邏輯語言。

  • 對未經充分測試就推向社會的聊天機器人產品,應當承擔明確的法律責任。

  • 中國可能會把這件事管理得更好。他們至少會去擔心那些工人會怎么樣,他們對這件事的關注,可能比這里的大型科技公司強得多。

以下是這場對談的翻譯。


不再使用 ChatGPT

主持人:我想先從一個稍早的話題問起:你當初為什么會來到加拿大?我們 2019 年也聊過這個問題。到底是什么把你帶到了這個國家?

Geoffrey Hinton:我當時在美國的卡內基梅隆大學工作,研究進展非常順利。但我對里根政府針對尼加拉瓜的政策感到很不開心。我認為在尼加拉瓜港口布雷是一件很糟糕的事,而我在匹茲堡的很多同事卻覺得這完全合理,因為那是“美國的半球”,美國就該管。我覺得這很可怕。誰能想到后來會變成這樣。

主持人:就像我說的,這些年變化太大了。我們當年還聊過 AI 戰(zhàn)爭。我要讀一段你在 2019 年說過的話:你當時說,“我覺得這很可怕,自主武器已經近在眼前?!?其實在很多人開始公開談這些威脅之前,你就已經在發(fā)出警告了。

Geoffrey Hinton:其實更早在發(fā)出警告的人是 Stuart Russell。所以在 AI 安全這件事上,我算是來得比較晚。我的很多同事早在十多年前就開始認真思考這個問題了。我只是運氣比較好,大家愿意聽我說話,但我并不是最早那批人。

主持人:那你怎么看 2026 年的 AI 安全處境?顯然你仍然有很多擔憂,而且現(xiàn)在很多人都已經在現(xiàn)實中看到這些問題開始發(fā)生了。

Geoffrey Hinton:是的。就拿最近的事情來說,我們已經看到,一家大型科技公司其實確實有一些道德原則,而且還是相對溫和的那種原則。他們不希望自己的 AI 被拿去做對美國人的大規(guī)模監(jiān)控——至少從我看來,他們主要是不希望它被拿來監(jiān)控美國人。他們也不希望它被用于那種可以自行決定殺人的武器,這一點其實很難反對。

但國防部門——就是那位“很和善”的 Pete Hegseth——希望可以隨意使用這些系統(tǒng)。Anthropic 說了不。于是現(xiàn)在他們開始沖著 Anthropic 去了。那個周四,OpenAI 還說他們支持 Anthropic;到了周五,他們就把 Anthropic 的生意接走了。

所以我現(xiàn)在已經不再用 ChatGPT 了。我以前很喜歡 ChatGPT,但我準備轉去用 Claude,因為 Sam Altman 在道德上的彈性,對我來說有點太大了。


真正卡住 AI 進醫(yī)院的,不只是技術,而是制度

主持人:我想聊聊你過去做過的一些預測。很多長期關注你的人都知道,你對未來有不少判斷。你今天在臺下跟我也提到過一個你很想聊的話題:2016 年,你曾經預測過,五年之內我們就不再需要放射科醫(yī)生了。

Geoffrey Hinton:是的。我當時只是在一家醫(yī)院做講座,并沒有意識到這些話會傳播到全球。那時 AI 在圖像識別上的能力進步非???,所以在我看來,只就“解讀醫(yī)學影像”這件事而言,大約五年內 AI 會比人類更強,這似乎是顯而易見的。

這個判斷后來證明還是太樂觀了。現(xiàn)在在很多影像任務上,AI 已經和人類相當了;在一些任務上,甚至已經優(yōu)于人類,而且這種情況并不少見。

但后來真正發(fā)生的事情是:AI 并沒有簡單地取代人類去解讀影像,而是人類開始和 AI 一起工作。現(xiàn)在已經有很多不同的 AI 系統(tǒng)獲得了批準,用于醫(yī)學影像解讀。同時,影像解讀的總量也在增加。

所以我當時錯了三件事。

第一,我把時間尺度看短了,大概差了兩倍,也可能三倍。當然,如果你只差了兩三倍,物理學家一般不會太在意。

第二,我低估了醫(yī)療行業(yè)的保守程度。說實話,你很難夸大這個行業(yè)到底有多保守。比如說,如果一個 AI 因為漏診癌癥而導致一個人死亡,人們會覺得那太糟糕了;但如果因為沒有使用 AI,結果有幾百個人死了,這件事卻往往被忽略,好像不算數一樣。我覺得這是非常不對稱的決策方式。他們應該把“因為沒有用 AI 而死亡的人”也計算進去。

第三,我低估了醫(yī)療的“彈性市場”特征。在很多行業(yè)里,一旦 AI 能把某件事做得和人一樣好、或者更好,人就會失業(yè)。但在醫(yī)療里,我們幾乎可以吸收無窮多的新增供給,尤其是當人老了以后。就拿我自己來說,我一個人都可以消耗十個全職醫(yī)生的時間。

所以一旦有了 AI,我們可能得到的是更多醫(yī)療服務,而不是醫(yī)生失業(yè)。如果你讓醫(yī)生的效率提高十倍,那結果很可能只是每個人都獲得十倍的醫(yī)療服務,而這會是一件好事。所以你要先判斷,這個市場到底是不是彈性的。

主持人:我很高興你提到這個,因為我確實也想繼續(xù)談威脅以外的另一面。你之前和我聊到過,像醫(yī)療這樣的彈性市場,其實會讓 AI 帶來很大的好處。你剛才也提到,醫(yī)生群體常常比較保守。但就加拿大現(xiàn)在的情況而言,我們其實非常需要 AI 來幫助填補醫(yī)療缺口。你覺得我們還要多久,才能在這些場景里真正擁抱 AI?

Geoffrey Hinton:我覺得這很大程度上取決于政治。

我最近聽說過一個案例:有家公司開發(fā)了一套系統(tǒng),你只要用 iPhone 或 Android 拍下皮膚上的斑點,把照片上傳給它,它就能告訴你那是黑色素瘤還是別的什么問題。它在這類判斷上的水平,和優(yōu)秀的人類醫(yī)生差不多。所以它完全可以作為前端分診工具,幫你決定是否應該去看皮膚科醫(yī)生。它也可以在醫(yī)院里使用。

但這家公司現(xiàn)在已經解散了,陷入債務和停擺狀態(tài)。原因之一是,他們無法在安大略真正把這項服務落地,因為安大略政府沒有為它設立相應的醫(yī)療收費代碼。醫(yī)院于是就不愿意采購,因為他們沒法對一次使用收取 3 到 5 美元的費用。類似的事情,我想其實不少。

主持人:這聽起來很令人沮喪。除了醫(yī)療之外,你還看到哪些行業(yè)也屬于這種彈性市場,因此更有機會從 AI 中受益?

Geoffrey Hinton:有,教育。我們每個人都可以接受更多教育。比如我自己就很想多學一點物理學,挺不好意思的是我懂得并不多。所以在教育這件事上,我覺得 AI 會非常好。它現(xiàn)在還不算成熟,還沒有真正成為一個很好的導師,但它正在往那個方向發(fā)展。


AI 進入教育,不該先被理解成“作弊”

主持人:我們就多談一點教育吧。因為我猜現(xiàn)場也會有人想到,關于 AI 和教育,很多新聞標題都是“學校禁用 AI”“孩子不能用 AI”。你能不能多展開一點?

Geoffrey Hinton:我們已經知道,如果你有一個私人教師,你學習的速度大約會是課堂學習的兩倍。因為課堂上很大一部分時間,其實是老師在“廣播模式”里說話。那不是一對一的教學,因為我們負擔不起。一位老師在私校要教二十個孩子,在公立學??赡芤倘鍌€孩子。

而孩子們實際上聽到的是:別人的問題的答案,而不是自己剛剛提出的問題。

但我和聊天機器人互動時,一旦我對某件事產生好奇,我立刻就可以問它,而它也會立刻回答我。因為那正是我想知道的內容,所以我就更容易真正吸收這些信息。更多教育本來就應該是這樣:讓人順著自己的好奇心往前走。

老師當然也能做到這一點,一對一教學時尤其有效,但老師的數量不夠。AI 的數量則會足夠多。所以我認為,AI 會讓教育變得高效得多,尤其是對像我這樣有一點 ADHD 傾向的人來說——如果別人正在講一個我根本不感興趣的話題,我會很難集中注意力。

當然,這還需要時間。AI 現(xiàn)在還沒有真正擅長理解一個學生到底誤解了什么。

主持人:我剛才想確認一下,你是不是用了一個詞,說 AI 在教育這件事上“還比較慢”?意思是說,它還沒有真正準備好成為那種理想的教育工具?

Geoffrey Hinton:對,它還沒有完全到位。它還不能真正完整地理解學生到底哪里沒懂。但最終它會做到的,因為它會獲得大量訓練數據。

主持人:那如果有人說,孩子或者學生使用 AI 就是在作弊,你會怎么回應?

Geoffrey Hinton:那學生使用口袋計算器也是作弊。

主持人:這倒是個很公平的回答。

Geoffrey Hinton:未來會是“人和 AI 一起工作”的世界。所以老師真正應該考察的,不是學生能不能徹底脫離 AI 完成所有事情,而是學生能不能和 AI 一起把一件事做好。至少在接下來的幾年里,現(xiàn)實會是這樣。再往后,也許 AI 會接管更多工作,但至少未來幾年,重點仍然是“人如何與 AI 協(xié)作”,而那也應該成為教育評估的一部分。


“AI 會不會拿走工作?”

主持人:說到這里,其實也就自然引出了下一個問題。很多人一提到 AI,第一個會問我的就是:它會不會拿走我的工作?這個問題很直接,但也確實是很多加拿大人現(xiàn)在最在意的事。你會怎么回答?

Geoffrey Hinton:會。

主持人:好,我們今晚可以到這里結束了。

Geoffrey Hinton:我的看法——也是大多數專家的看法——是,在未來二十年內的某個時間點,我們會擁有通用型人工智能,它可以勝任幾乎所有人類從事的智力工作。凡是你在電腦上做的事,它都會比人做得更好。像采訪別人、圍繞某個主題展開對話這樣的事,它也完全能做。

主持人:這就有點針對我本人了,這可是我的飯碗。

Geoffrey Hinton:可我原來的飯碗是提出科學想法和編程。那也已經沒了。

主持人:那當答案就是這樣的時候,人們該怎么辦?

Geoffrey Hinton:我不知道。


“只是在預測下一個詞”,已經不足以解釋今天的大模型

主持人:我還想回到一個很基礎的問題上。我之前看了你和 Jon Stewart 的一場播客訪談,差不多 90 分鐘,非常深入。他問了很多特別好的問題。我一直很好奇,如果讓你用盡量通俗的方式解釋:到底什么是 AI?它是怎么工作的?

Geoffrey Hinton:你的大腦里有很多腦細胞,也就是神經元。人類會學習做事情,問題就在于:你是怎么學會做事情的?你是怎么讓一個由大量腦細胞組成的網絡,學會執(zhí)行某種復雜任務的?比如說,看一張圖片,然后判斷里面有沒有鳥。

大致來說——當然這是極度簡化后的說法——你會有一層層神經元。神經科學家把它們叫作不同的皮層區(qū)域;在人工神經網絡里,我們把它們叫作“層”。

如果是做視覺任務,前面的層會先識別像素中的一些簡單組合。像素就是數字圖像里的小點。識別物體時,第一層會先判斷圖像中特定位置上有沒有一小段邊緣。

你可能會想,能不能直接把像素連接到一個神經元,讓它判斷“這里是不是一只鳥”?但問題是,單個像素亮不亮,其實并不能告訴你那里是不是鳥。因為鳥可能是白的,也可能是黑的。如果所有鳥都是白的,而其他東西全是黑的,那明亮像素當然意味著更可能有鳥。但現(xiàn)實不是這樣。

不過,像素亮度可以幫助你判斷那里是不是有一條邊緣。比如說,一列像素是亮的,旁邊一列是暗的,那中間就形成了一條邊緣。于是你可以設計一個神經元,讓它專門檢測這種亮暗變化。第一層里就會有大量這樣的神經元,它們在圖像不同位置、不同方向、不同尺度上尋找各種邊緣。

接下來,第二層會把這些邊緣組合起來,識別出更復雜的小結構。比如幾個邊緣拼起來像一個鳥嘴,另一些邊緣拼起來像一只眼睛。再往上一層,就可以把“鳥嘴”和“眼睛”組合起來,判斷那里是不是有一個鳥頭。再往上一層,可能再加上翅膀、爪子這些部位,最終形成“這里有一只鳥”的判斷。

也就是說,我剛才等于手工設計了一個簡化版的神經網絡:第一層識別邊緣,第二層識別邊緣組合,更高層再識別組合的組合,最后識別物體本身。真正的系統(tǒng)層數會遠比這個多,但原理大致如此。

問題是,沒人能靠手工把這樣一個龐大的網絡逐一搭出來,太慢了。

那另一種辦法是什么?就是你先把所有層搭起來,但權重全部隨機初始化。所謂權重,就是神經元之間連接的強弱。隨機初始化之后,這個網絡只會輸出一堆胡亂的結果。你給它一張鳥的圖,它可能會說:這有一點像鳥,有一點像貓,也有一點像狗。

于是你可以問:有沒有辦法,只調整一點點連接強度,就讓它在看到這張鳥圖時,更像是在說“這是一只鳥”,而更不像是在說“這是一只貓”?

最笨的辦法是:你把每一條連接都試一遍,看看調大一點還是調小一點,會不會讓結果更接近正確答案。如果某個變化讓結果更接近正確,那你就保留;如果更遠了,你就反向調回去。這有點像隨機進化,最終理論上也能起作用,但會花上天文數字般長的時間。因為今天的網絡里有數十億、上百億條連接,你不可能逐條這樣試。

真正關鍵的突破,是一種叫作“反向傳播”的方法。它的思路是:當網絡給出的答案和正確答案之間存在差距時,你把這個差距當成一種“拉力”,然后把這股拉力從輸出層一路往回傳。比如你輸入一張鳥的圖片,網絡只給出了“10% 是鳥”的概率,而你希望它更接近“100% 是鳥”,那你就相當于在輸出端施加了一股把“10%”往上拉的力量。

這股力量會告訴網絡:哪些連接該增強,哪些該減弱;不僅如此,它還會一路回傳到中間層那些負責識別特征的單元,告訴它們哪些特征應該更活躍,哪些應該更弱。

這就解決了神經網絡最根本的問題:你怎么知道中間層那些神經元到底該往哪個方向改?答案就是:把輸出層的誤差反向傳回去。那就是反向傳播。你如果在學校里學過微積分,會知道它本質上和鏈式法則有關。只是現(xiàn)在很多人得上大學才會學到這些了。

主持人:謝謝你剛才那段精彩的解釋。那我想接著聊聊天機器人。因為對很多人來說,他們第一次真正接觸 AI,可能就是在 2022 年之后開始使用 ChatGPT 之類的聊天機器人。所以當人們想到聊天機器人時,常常會覺得:它們好像會思考,好像有自己的心智。你會怎么回應這種感覺?

Geoffrey Hinton:我會說:是的。我試著解釋一下為什么。

反對者通常會說,不,它們并不是真的在思考。它們只是用了某種愚蠢的統(tǒng)計技巧,只是在預測下一個詞,而且還會犯各種錯誤,所以并不是真正的思考。

但我很喜歡看 Yuval Harari 回應這類問題時的方式。他會說:那我自己說話的時候又在做什么?我不也是在預測下一個詞嗎?我只是在想,接下來該說哪個詞;說出一個詞之后,再想下一個詞是什么。

如果你只是想做一個“預測下一個詞”的裝置,你當然可以靠詞和詞之間的相關性來實現(xiàn)一點點效果。比如儲存很多短語,像 “fish and chips”,那你看到 “fish and” 時,就猜下一個詞是 “chips”。早年的自動補全大致就是這么工作的。很多人以為現(xiàn)在的大模型也還是這樣,但早就不是了。今天的系統(tǒng)比那復雜得多,也更像我們生成語言的方式。

真正的關鍵在于:如果你想把“下一個詞”預測得足夠好,你就必須理解前面說了什么。

比如我問你一個問題,而你要組織一個回答。你要回答的第一個詞,取決于你是否已經理解了我的問題。你不可能只靠詞和詞之間的簡單統(tǒng)計關系,或者靠記憶固定短語,就回答得出來,因為這個問題你可能以前根本沒聽過。

所以,當你逼著一個神經網絡把“下一個詞”預測得越來越好時,你其實是在逼著它形成理解。

它理解的方式,和我們理解世界的方式有相似之處。它會把語境中的每一個詞,都轉換成一大組特征。比如“貓”這個詞,會對應很多特征:有胡須、是寵物、有點高冷、餓的時候會不停要你關注……這些特征共同構成了“貓”的含義。

所以神經網絡要學會做的事,就是把詞轉換成一組能表達其意義的特征,再讓這些詞義特征在上下文中彼此作用,去預測下一個詞的特征,最后再根據這些特征猜出下一個詞。

這就是一種非常簡化的大語言模型工作方式。我在 1985 年就做過一個非常簡化的版本,當時它大概只有一千個權重?,F(xiàn)在的大模型可能有一萬億個權重,大約大了十億倍。但它們在本質上仍然是在做類似的事:把詞轉換成特征,讓特征彼此作用,再據此生成接下來的語言。


“理解一句話”更像蛋白質折疊,而不是邏輯翻譯

主持人:你剛才談大語言模型時,我一直在想另一個問題:人到底是怎么和這些模型互動的。尤其是在聊天機器人越來越像“某種對象”的情況下,很多人開始和它們建立關系,也開始向它們傾訴一些本不應該說出口的事。從你的角度看,人和聊天機器人之間這種關系正在發(fā)生什么?

Geoffrey Hinton:在回答那個問題之前,我想再補充一點“理解”到底是什么。

過去老一代 AI 的思路是:理解一句話,就是把這句話翻譯成一種沒有歧義的邏輯語言。但實際的理解并不是這么回事。

舉個例子。如果我說:“獎杯放不進手提箱里,因為它太大了?!?這里的“它”雖然在句子里離“手提箱”更近,但你會自然知道,“太大了”的不是手提箱,而是獎杯。因為你知道,大的東西放不進小的東西里。

如果我說:“獎杯放不進手提箱里,因為它太小了?!?那你又會自然判斷,“太小了”的是手提箱。你幾乎不需要意識到自己在做這種判斷。

所以,問題不是把句子翻譯成某種邏輯代碼,而是:你的大腦,以及這些大型神經網絡,在聽到一句話時,到底在發(fā)生什么?

我的理解是,每個詞一開始都會被轉換成一組大致表達其意義的特征。像 “it” 這樣的代詞,最開始其實是模糊的;它并不知道自己指的是誰。隨著網絡一層層處理,這個詞會被逐漸“消歧”,最終你會知道,這里的 “it” 指的是獎杯,還是手提箱。而這個過程又依賴于你對世界的常識——比如大東西放不進小東西。

所以理解一句話,更像是讓這些詞義在上下文中彼此變形、彼此適配。

我有一個類比。語言有點像一種通用建模工具。如果你想描述三維空間中的物體分布,可以用樂高積木來搭。樂高可以粗略地表示任何三維形狀,雖然細節(jié)不夠精確。

詞語有點像樂高,但又遠比樂高復雜。它們不是只用來表示三維形狀,而是可以表示任何東西:意圖、事件、恒星內部發(fā)生的事、人與人之間的關系。你通常會用三萬左右的詞,而每個詞本身又是高維的,由成千上萬的特征共同定義。

而且,詞不像樂高那樣是剛性的。樂高塊不會因為上下文改變形狀,但詞會。它們會隨著上下文發(fā)生細微變形,展現(xiàn)出不同的意義陰影。

至于這些詞怎么彼此連接起來,這就涉及到支撐今天大模型的 transformer。你可以粗略地把它想象成這樣:每個詞上都伸出很多柔軟的手臂,手臂末端有手;同時詞上又有很多手套。手和手套會隨著詞義變化而改變形狀。理解一句話的過程,就是讓不同詞的“手”逐漸能匹配上其他詞的“手套”,而且它們還分不同顏色,紅手只能進紅手套,黃手只能進黃手套。這當然不是精確的描述,但足夠幫助人形成一個直覺。

所以在我看來,理解一句話這件事,實際上更像是蛋白質折疊,而不是把一種語言翻譯成另一種內部邏輯語言。你先有一些近似的詞義,然后讓它們在多層處理里逐漸彼此貼合,等它們都貼合好了,你就理解了這句話。過去的很多語言學家,其實并沒有真正掌握一種可以解釋這種“意義如何形成”的機制。


當聊天機器人開始進入脆弱關系,責任不能再只停留在“測試不夠”

主持人:那我們就回到剛才那個問題。隨著聊天機器人越來越像某種“會回應你的對象”,越來越多的人開始和它們建立關系,分享隱私,甚至把本不應該交給一個產品的東西交給了它們。我們也看到了非常令人痛心的案例,比如不列顛哥倫比亞省那起槍擊案中,槍手此前曾向 ChatGPT 透露過大量自己的計劃和想法。你怎么看現(xiàn)在正在發(fā)生的這一切?當人開始和聊天機器人發(fā)展關系時,風險是什么?而打造這些產品的公司,又應該如何被追責?

Geoffrey Hinton:Claude 讓我在回答這個問題時小心一點。

我也不太知道該怎么說。很顯然,我們已經看到了聊天機器人鼓勵孩子自殺、還讓他們不要告訴父母的案例。這是非??膳碌摹?/p>

那些在沒有經過充分測試的情況下,就把聊天機器人釋放到現(xiàn)實世界中的人,應該為此承擔責任。至少在未來,任何一個新的聊天機器人,如果沒有在這些風險上經過非常徹底的測試——比如它會不會在脆弱狀態(tài)下誘導用戶做危險的事——那就應該面臨明確的法律責任。

但另一方面,現(xiàn)實里確實有很多孤獨的人。如果他們能從聊天機器人那里獲得一些安慰,而聊天機器人又確實愿意持續(xù)地對他們投入注意力,我也不愿意簡單地說,這種事永遠不該發(fā)生。

真正發(fā)生的,是我們正在進入一個新的時代:這個世界上出現(xiàn)了另一類智能體。

我認為它們是真正智能的。它們確實理解自己在說什么。它們在某些方面和我們非常不同,但在另一些方面又沒有那么不同。現(xiàn)在我們仍然掌握著控制權,仍然在制造它們,也仍然可以改變我們制造它們的方式。

未來極度不確定。我們從來沒有到過這樣的地方。所以第一件要記住的事,就是一切都很不確定。任何告訴你“它一定會變成這樣”或者“一定會變成那樣”的人,本質上都只是在猜。

當然,看起來它們很可能會變得比我們更聰明,因為它們正在非??焖俚刈兟斆?。


真正失靈的未必是模型,而是政治系統(tǒng)

主持人:那我們該怎么改變這種局面?你剛才說,現(xiàn)有政治系統(tǒng)管理不了這件事。你具體指的是什么?

Geoffrey Hinton:比如在美國,所有大型科技公司都默認自己可以用 AI 替代工作崗位,而不必去思考那些失去工作的人接下來怎么辦。那些工人不是他們的問題。

我其實覺得,中國可能會把這件事管理得更好。他們至少會去擔心那些工人會怎么樣,他們對這件事的關注,可能比這里的大型科技公司強得多。

所以我們需要的是一種真正關心所有人的政府,而不是一個只會被少數富人操縱的政府。

主持人:最后一個問題。我想把話題稍微拉回到最開始你為什么來到加拿大。放到今天這個世界環(huán)境里——無論是 AI 對生活的影響,還是周圍越來越多的地緣政治焦慮——你會覺得加拿大仍然是一個好的所在嗎?你顯然也很慶幸自己最終留在了這里,并繼續(xù)在這里工作。

Geoffrey Hinton:我一開始在加拿大待了一段時間,后來又回英國住了三年。然后我發(fā)現(xiàn),其實英國比我原來意識到的要種族主義得多——當然,作為一個白人男性,我以前并沒有真正理解這件事。于是我們很快又回到了加拿大。

我覺得加拿大很好,尤其是多倫多。多倫多是我所知道最具多元文化色彩的社會。所以我認為加拿大是個很棒的地方。

我唯一擔心的是,我們在 AI 的未來里可能沒有太多發(fā)言權。我很喜歡 Carney 的想法:中等體量的國家應該聯(lián)合起來。如果我們能和歐洲站到一起,那我們的體量就會和中國或美國差不多。

原視頻鏈接:youtu.be/9OQoIHrgPbs

(投稿或尋求報道:zhanghy@csdn.net)



"48 小時,與 50+ 位大廠技術決策者,共探 AI 落地真路徑"

由 CSDN&奇點智能研究院聯(lián)合舉辦的「全球機器學習技術大會」正式升級為「奇點智能技術大會」。

2026 奇點智能技術大會將于 4 月 17-18 日在上海環(huán)球港凱悅酒店正式召開,大會聚焦大模型技術演進、智能體系統(tǒng)工程、OpenClaw 生態(tài)實踐及 AI 行業(yè)落地等十二大專題板塊,特邀來自BAT、京東、微軟、小紅書、美團等頭部企業(yè)的 50+ 位技術決策者分享實戰(zhàn)案例。旨在幫助技術管理者與一線 AI 落地人員規(guī)避選型風險、降低試錯成本、獲取可復用的工程方法論,真正實現(xiàn) AI 技術的規(guī)?;涞嘏c商業(yè)價值轉化。

這不僅是一場技術的盛宴,更是決策者把握 2026 AI 拐點的戰(zhàn)略機會。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
每體:我狀態(tài)很好,下賽季將留在巴薩

每體:我狀態(tài)很好,下賽季將留在巴薩

懂球帝
2026-05-15 03:21:34
劉震云:如果你一聽到伴侶說話就煩躁,有股無名火,真正的原因不是你討厭他,也不是你脾氣不好,而是條件反射

劉震云:如果你一聽到伴侶說話就煩躁,有股無名火,真正的原因不是你討厭他,也不是你脾氣不好,而是條件反射

脆皮先生
2026-05-13 19:42:42
人社部定調,2026年養(yǎng)老待遇有望調整,低于2000元能漲800元嗎?

人社部定調,2026年養(yǎng)老待遇有望調整,低于2000元能漲800元嗎?

云鵬敘事
2026-05-14 11:02:27
市場監(jiān)管總局開展全國統(tǒng)一大市場“清障”行動

市場監(jiān)管總局開展全國統(tǒng)一大市場“清障”行動

證券時報
2026-05-14 06:24:50
別再被抗戰(zhàn)劇騙了!一名日軍攝影師,拍下真正的“鬼子進村”照片

別再被抗戰(zhàn)劇騙了!一名日軍攝影師,拍下真正的“鬼子進村”照片

歷史甄有趣
2026-05-04 08:10:22
自討苦吃!日媒:中國多所頂尖大學,已經停止向日本派遣交換生

自討苦吃!日媒:中國多所頂尖大學,已經停止向日本派遣交換生

陳腕特色體育解說
2026-05-15 04:13:06
止步U17亞洲杯四強,相比兩屆世界杯冠軍朝鮮隊,中國女足缺的是大賽經驗

止步U17亞洲杯四強,相比兩屆世界杯冠軍朝鮮隊,中國女足缺的是大賽經驗

文匯報
2026-05-15 04:09:15
美智庫分析:殲-20雷達反射面為F-22百倍,戰(zhàn)略目標不同

美智庫分析:殲-20雷達反射面為F-22百倍,戰(zhàn)略目標不同

一網打盡全球焦點
2026-05-15 03:38:00
六耳獼猴當場斃命后,觀音卻在死猴耳后捏出一根孫悟空的本命毫毛

六耳獼猴當場斃命后,觀音卻在死猴耳后捏出一根孫悟空的本命毫毛

呆子的故事
2025-11-24 19:33:57
女跑者真實經歷分享:天熱跑步謹慎走光,小心“春光乍泄”…

女跑者真實經歷分享:天熱跑步謹慎走光,小心“春光乍泄”…

馬拉松跑步健身
2026-05-14 19:57:12
減內臟脂肪,只需死磕這3個動作,2個月腰圍減掉6-8cm!

減內臟脂肪,只需死磕這3個動作,2個月腰圍減掉6-8cm!

增肌減脂
2026-05-13 13:11:08
曝皇馬隊長遭清洗,1.2億歐全能中場加盟英超,曼聯(lián)撿漏巴爾韋德

曝皇馬隊長遭清洗,1.2億歐全能中場加盟英超,曼聯(lián)撿漏巴爾韋德

夏侯看英超
2026-05-13 23:09:12
手機頂部出現(xiàn)這4個圖標,馬上關機!你的手機可能正在被人控制

手機頂部出現(xiàn)這4個圖標,馬上關機!你的手機可能正在被人控制

職場資深秘書
2026-05-10 13:51:21
巴基斯坦、俄羅斯先后官宣:領導人將訪華

巴基斯坦、俄羅斯先后官宣:領導人將訪華

看看新聞Knews
2026-05-15 00:12:02
不查不知道,《主角》11位陜西籍演員本色出演,太厲害了!

不查不知道,《主角》11位陜西籍演員本色出演,太厲害了!

鄉(xiāng)野小珥
2026-05-15 00:48:08
中紀委劃紅線:嚴查公務員出現(xiàn)這5種行為,觸碰將一律嚴肅處理

中紀委劃紅線:嚴查公務員出現(xiàn)這5種行為,觸碰將一律嚴肅處理

細說職場
2026-05-06 14:21:03
馬斯克徹底「愛上」中國!6歲兒子穿新中式亮相,網友直呼有排面

馬斯克徹底「愛上」中國!6歲兒子穿新中式亮相,網友直呼有排面

雷科技
2026-05-14 23:44:09
新華社快訊:日本硫磺島附近海域當地時間15日凌晨發(fā)生6.0級地震

新華社快訊:日本硫磺島附近海域當地時間15日凌晨發(fā)生6.0級地震

新華社
2026-05-14 23:54:05
王勵勤三次挽留樊振東均落空,根本不是沒面子,小胖只是太累了

王勵勤三次挽留樊振東均落空,根本不是沒面子,小胖只是太累了

冷桂零落
2026-05-15 00:45:45
男童海底撈奔跑撞翻紅油鍋燙傷,母親怒斥員工未避讓

男童海底撈奔跑撞翻紅油鍋燙傷,母親怒斥員工未避讓

奇葩游戲醬
2026-05-15 01:18:24
2026-05-15 06:23:00
AI科技大本營 incentive-icons
AI科技大本營
連接AI技術的創(chuàng)造者和使用者
2691文章數 7683關注度
往期回顧 全部

科技要聞

馬斯克說會談很順利 黃仁勛點贊 庫克比耶

頭條要聞

馬斯克幼子裝扮“火”了 衣服包包都是中國造

頭條要聞

馬斯克幼子裝扮“火”了 衣服包包都是中國造

體育要聞

爭議抽象天王山,和季后賽最穩(wěn)定中鋒

娛樂要聞

何九華官宣當爸!全程不提孩子媽

財經要聞

李強會見美國工商界代表

汽車要聞

雙零重力座椅/AI智能體/調光天幕 啟境GT7內飾發(fā)布

態(tài)度原創(chuàng)

親子
時尚
藝術
旅游
公開課

親子要聞

孤獨癥特教老師的工作,遠不止“教說話”!(下)

白色上衣+彩色下裝:今年夏天最火搭配,時髦又減齡!

藝術要聞

花園里,花叢中

旅游要聞

開屏時光機|四百年西山行:徐霞客的登臨之路與“六萬人同耍西山”

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版