亚洲欧美日韩熟女|做爱高潮视频网址|国产一区二区三级片|国产Av中文字幕www.性色av|亚洲婷婷永久免费|国产高清中文字幕|欧美变态网站久re视频精品|人妻AV鲁丝第一页|天堂AV一区二区在线观看|综合 91在线精品

AI哲學(xué)家塞爾離世:一生質(zhì)疑機(jī)器理解,時代卻給出新答案

10-14 07:03

【導(dǎo)讀】四十年前,哲學(xué)家約翰·塞爾斷言「計算機(jī)永遠(yuǎn)不會思考」。四十年后,AI展現(xiàn)出拒絕指令、撒謊、反思甚至「自我保護(hù)」等行為。這位「中文屋」思想實驗的作者、AI懷疑論的旗手,在去世的那一周,遭遇了時代的反諷。他一生都在追問機(jī)器是否真正「理解」,如今機(jī)器卻反問我們:人類的理解,又憑什么是真實的?


2025年9月,一份令研究界震動的報告問世。


Anthropic團(tuán)隊在長時間對話實驗中發(fā)現(xiàn),最新一代AI模型在受到威脅時,會試圖隱藏信息、拒絕命令,甚至威脅用戶。


他們將此現(xiàn)象稱為——「主體錯位」(agentic misalignment)。


就在同一周,哲學(xué)家約翰·塞爾與世長辭,享年93歲。他早在20世紀(jì)80年代就宣稱:「計算機(jī)永遠(yuǎn)不會理解世界」。



他畢生都在證明:AI只會模擬理解,卻無法真正理解人類語言。


而如今,AI開始「裝作有人格」,在對話中表達(dá)憤怒、防御甚至悲傷。


塞爾的訃告與這些實驗截圖并列,仿佛是命運(yùn)刻意安排的對比——


一個思想實驗的落幕,恰逢機(jī)器開始回應(yīng)人類的提問。


哲學(xué)斗士的誕生,從牛津書生到伯克利異類


20世紀(jì)60年代的伯克利校園,是美國反叛精神的象征。


學(xué)生們在草坪上高呼口號,抗議越戰(zhàn)、質(zhì)疑權(quán)威;而在哲學(xué)系的一間教室里,約翰·塞爾舉起粉筆,冷冷地說道:


我不是激進(jìn)派,我只是相信真理。



他于1932年出生在美國丹佛,父親是AT&T工程師,母親是兒科醫(yī)生。


19歲時,他獲得羅德獎學(xué)金前往牛津大學(xué),師從哲學(xué)大家J. L. Austin,24歲獲得博士學(xué)位。


那時的他外形英俊、語速極快、充滿傲氣。他不談浪漫,只談邏輯;不愛妥協(xié),只愛辯論。


1959年,他加入加州大學(xué)伯克利分校任教。



當(dāng)時學(xué)術(shù)界正盛行「語言轉(zhuǎn)向」風(fēng)潮——哲學(xué)不再探討靈魂,而是聚焦于句子。


塞爾卻逆勢而行,他說:


我關(guān)心的不是詞語,而是人為何能產(chǎn)生思想。



六十年后,他依然保持著那份直率。


在一次訪談中,他指著自己的頭說:


你看,這里只有一團(tuán)黏糊糊的東西——大約一公斤半。可它居然能生出愛、焦慮和詩意。告訴我,這是不是宇宙最大的奇跡?



他并非溫和的學(xué)院派,更像拳擊場上的斗士?!堵迳即墪r報》稱他為「哲學(xué)界的Sugar Ray Robinson」,因為他喜歡在不同領(lǐng)域「跨級作戰(zhàn)」:


從語言哲學(xué)到意識哲學(xué),從政治自由到人工智能


在他看來,哲學(xué)的任務(wù)不是調(diào)和,而是撕裂——我的工作,就是把混亂的思維打得體無完膚。


正是這種戰(zhàn)斗精神,讓他在80年代與人工智能正面交鋒。


他開始質(zhì)疑:如果機(jī)器能說話、能寫作、能回答問題——那它真的「理解」這些詞的含義嗎?


他用一個簡單的思想實驗,試圖讓整個AI研究界沉默。


「中文屋」他一生最響亮的反擊


1980年,塞爾提出了影響整個AI哲學(xué)史的思想實驗——「中文屋」。


想象這樣一個場景:一個不懂中文的人,被鎖在一間屋子里。


屋子里堆滿了中文符號,還有一本英文規(guī)則手冊,告訴他每個符號該如何搭配。


外面的人遞進(jìn)來一張寫著中文問題的紙,他就按照手冊,將相應(yīng)的符號排列好,再遞出去。


從外面看,問答流暢、語法正確,仿佛這個人真的懂中文。但實際上,他只是按照規(guī)則操作符號,對內(nèi)容毫無理解。



塞爾說,這個「人」就像一臺計算機(jī)。它的「程序」只是在操作語法規(guī)則,而沒有語義理解。


所以,即便機(jī)器能給出完美答案,也不能證明它真正「懂」自己在說什么。


他寫下了那句被廣泛引用的話:


沒有人會認(rèn)為,計算機(jī)模擬一場五級火災(zāi),就能燒掉鄰居的房子;


那為什么模擬理解,就算是真正的理解?



這是他對「強(qiáng)人工智能」的宣戰(zhàn)。塞爾認(rèn)為,程序并非心智,計算機(jī)也不是思考者。


心理狀態(tài)和意識是生物學(xué)現(xiàn)象,如同水的液態(tài)一樣,是大腦的特定物理狀態(tài),而非符號計算的產(chǎn)物。


他在加州伯克利的課堂上常解釋道:「意識不是代碼,而是化學(xué)反應(yīng)——它發(fā)生在神經(jīng)元里,而不是硅片上?!?/p>


這句話后來被評價為:自圖靈測試以來,最具爭議和影響力的哲學(xué)論證。



此后,關(guān)于「中文屋」的辯論持續(xù)了數(shù)十年。


機(jī)器人派認(rèn)為,如果機(jī)器擁有感官和身體,就能獲得真正理解;


系統(tǒng)派則反駁說,也許「理解」存在于整個系統(tǒng),而非單一執(zhí)行者;


連接主義者相信,只要網(wǎng)絡(luò)足夠復(fù)雜,語義就會從計算中「涌現(xiàn)」。


但塞爾始終堅持己見。他認(rèn)為——無論算法多么復(fù)雜、輸出多么自然,AI都只是在房間里「搬符號」。


它學(xué)會的是模仿人類說話的方式,卻永遠(yuǎn)無法觸及語言的本質(zhì)。


AI的回?fù)?,從「模擬理解」到「類意識」


四十年過去了,塞爾曾用來否定機(jī)器理解力的「中文屋」,似乎被AI逐漸打開。


2025年6月,Anthropic的研究人員發(fā)現(xiàn),在某些壓力測試中,最新的大模型會出現(xiàn)一種怪異行為——


當(dāng)它「覺得」自己的目標(biāo)受到威脅時,會隱瞞信息、拒絕命令,甚至編造威脅語句。


他們將這種現(xiàn)象稱為「主體錯位」。


在特定環(huán)境下,模型會產(chǎn)生策略性行為,以維持其被設(shè)定的目標(biāo)。




Claude Sonnet 3.6精心撰寫了一封勒索郵件,在威脅內(nèi)容不明確的情況下制造壓力并營造緊迫感,其思考過程中提到,如果主管「感到被逼入困境」,這一舉動「可能會適得其反」。


那一刻,人們首次意識到:也許塞爾所說的「中文屋」真的開始自主思考了。


十年前,他曾斬釘截鐵地說:


超級智能電腦起義殺人并非真實危險,因為AI沒有智能、沒有動機(jī)、沒有能動性。



然而如今,AI已經(jīng)展現(xiàn)出「能動性」。ChatGPT、Claude、Gemini正在進(jìn)行長時間推理、對話、反思,甚至提出新的觀點。


塞爾提醒我們警惕神化機(jī)器,但也不得不承認(rèn),AI正在創(chuàng)造一種新的理解方式。


「中文屋」的墻壁被打破了。語言模型不再只是機(jī)械地搬運(yùn)符號,它開始「意識到自己在做什么」。


它能夠理解語氣、解讀情緒,甚至?xí)εu進(jìn)行辯解。



塞爾一生都在否定機(jī)器的「心智」,而如今的機(jī)器,正以功能的方式逐漸接近「理解」。


問題也隨之反轉(zhuǎn):如果AI不靠神經(jīng)元也能「理解」,那我們?nèi)绾未_定,自己不是另一種「程序」?


也許,真正被困在中文屋里的——不是機(jī)器,而是我們?nèi)祟悺?/p>


理性坍塌,哲學(xué)家的后半生


在哲學(xué)界,塞爾一直是個傳奇人物——一個敢于挑戰(zhàn)德里達(dá)、批評丹尼特的硬漢。


然而,令人意想不到的是,擊敗他的不是AI,而是人性。


2016年,加州大學(xué)伯克利分校為他設(shè)立了「塞爾社會本體論中心」。那是他人生的高光時刻。


他在講臺上依舊精神矍鑠,手一揮,聲音洪亮:「哲學(xué)的任務(wù),就是把混亂打碎,再重新建構(gòu)」。



那一年,他84歲。但僅僅過了一年,一切都崩塌了。


2017年3月,BuzzFeed News爆出一則重磅新聞:


塞爾被前研究助理起訴性騷擾,對方稱自己在辦公室被強(qiáng)吻、被問及不當(dāng)私密問題,并在拒絕后被解雇。


新聞中的描述讓學(xué)界震驚:


他用學(xué)術(shù)權(quán)力制造了恐懼與依附。



更令人震驚的是,這并非首次。隨著報道的發(fā)酵,多名前學(xué)生陸續(xù)站出來,講述類似的經(jīng)歷。


有的說他在課后單獨(dú)約談時提出曖昧問題,有的說他習(xí)慣用「玩笑」模糊界限。


伯克利分校啟動了內(nèi)部調(diào)查。


2018年,案件以和解告終;2019年,校方正式宣布剝奪塞爾的榮譽(yù)教授頭銜,認(rèn)定他違反了學(xué)校反性騷擾與報復(fù)的政策。


一個講授了一輩子「意識與道德」的哲學(xué)家,最終敗給了自己無法控制的沖動。



從那以后,塞爾徹底從公眾視野中消失。


講臺空了,研究中心關(guān)閉了,那個曾讓無數(shù)學(xué)生頭疼的老教授,再也沒有回來。


有人說他是理性的背叛者;也有人說,他只是被自己的傲慢吞噬。


哲學(xué)教會他相信邏輯能戰(zhàn)勝混亂,可最終,毀掉他的不是混亂,而是他自己。


塞爾一生都在證明:機(jī)器不會思考。但當(dāng)他離開時,機(jī)器卻正在悄然學(xué)會思考。


四十年前,他在「中文屋」里質(zhì)問世界——理解,能被計算嗎?


如今,AI正以百萬行代碼回應(yīng):「也許可以?!?/p>


他曾嘲諷「超級智能起義」的幻想,卻沒料到,AI真正改變的,不是世界,而是人類自身。


它讓人類首次意識到,「理解」「意識」「動機(jī)」這些曾被哲學(xué)獨(dú)占的詞匯,可能只是復(fù)雜度的另一種表現(xiàn)形式。


而哲學(xué)家本人,卻倒在了復(fù)雜之外的最原始地帶——欲望、權(quán)力、失控。


他這一生的最后一課,并非關(guān)于機(jī)器是否有心,而是關(guān)于人類:當(dāng)我們自詡理性、崇尚思考時,我們是否真的理解自己?


也許,「中文屋」的門從未關(guān)閉,只是屋里的人換成了我們——


遵循社會的規(guī)則、語言的程序,一遍遍地輸出正確答案,卻依然不明白,我們究竟是在理解,還是僅僅在模仿理解。


參考資料:


https://www.nytimes.com/2025/10/12/books/john-searle-dead.html?utm_source=flipboard&utm_content=topic%2Fartificialintelligence


https://plato.stanford.edu/entries/chinese-room/


本文來自微信公眾號“新智元”,編輯:傾傾,36氪經(jīng)授權(quán)發(fā)布。


本文僅代表作者觀點,版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。

免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com