亚洲欧美日韩熟女|做爱高潮视频网址|国产一区二区三级片|国产Av中文字幕www.性色av|亚洲婷婷永久免费|国产高清中文字幕|欧美变态网站久re视频精品|人妻AV鲁丝第一页|天堂AV一区二区在线观看|综合 91在线精品

對話圖靈獎得主希發(fā)基思:AI帶來的最大威脅是使人類變成“奴隸的奴隸”

商界觀察
2023-07-19

自2023年初,ChatGPT讓世人陷入AI狂熱之中。隨著GPT4亮相,它涌現(xiàn)出的種種強(qiáng)大能力讓人們覺得,只要再過幾年時間,AI將成為無所不能的存在。

 

但基于大語言模型Transformer范式的AI上限到底在哪里?它是否能真的完全取代我們?這些問題曾經(jīng)有過很多答案。有人認(rèn)為大語言模型將帶來一個新的時代,它距離能夠完成所有人類工作的人工智能非常接近;但也有人認(rèn)為它不過是隨機(jī)鸚鵡,根本無法理解這個世界。目前,不論哪一方觀點(diǎn)都缺乏足夠的闡釋和成型的體系。

 

為了讓人們更全面地看清楚這個問題,中科院外籍院士約瑟夫·希發(fā)基思寫下了《理解和改變世界》,從認(rèn)知原理的角度闡述了他長達(dá)幾十年對于人工智能通向AGI的潛在道路的思考。約瑟夫·希發(fā)基思早于Hinton等人十年就已獲得圖靈獎,這次他非常清晰地從認(rèn)知原理的角度闡述了他對于“人工智能的能與不能”,“通向AGI的潛在道路和風(fēng)險(xiǎn)”長達(dá)幾十年的思考。

 

劃重點(diǎn)

 

1、 人和人工智能是互補(bǔ)的,而非互相替代的關(guān)系。人類擁有的常識知識和形成模型的抽象能力,這是當(dāng)前范式的人工智能無法做到的,因此它們也不可能形成原理性的創(chuàng)新。而人工智能是可以在不掌握原理的情況下,對于可能存在大量變量的復(fù)雜事物進(jìn)行預(yù)測。這是人因?yàn)檎J(rèn)知能力限制而無法達(dá)到的,這被希發(fā)基思稱為“AI神諭”,它可能帶來一種“新的科學(xué)”。

 

2、 AI會帶來的最大威脅是人類對它的依賴可能導(dǎo)致我們無限讓渡自己的判斷,喪失決策權(quán),最終成為“奴隸的奴隸“。為避免這一點(diǎn),人類必須能夠掌握知識的發(fā)展、應(yīng)用的所有過程,確保不會讓這些機(jī)器自身為我們做出關(guān)鍵決策。

 

3、 根據(jù)能力互補(bǔ)的情況,對于人類來說,最好的未來情景是機(jī)器和人類之間達(dá)成一種和諧合作,并通過這種合作達(dá)成新的繁榮。在這個過程中,社會必須以人類生活的改善為目標(biāo)發(fā)展并應(yīng)用技術(shù)。

 

當(dāng)前的AI離AGI還很遠(yuǎn)

 

騰訊科技:ChatGPT的出現(xiàn)對人工智能意味著什么?它是一個新的范式,還是更多的是一個已有范式特定的應(yīng)用?

 

約瑟夫·希發(fā)基思:我認(rèn)為,ChatGPT和其他語言模型的出現(xiàn)是人工智能發(fā)展的重要一步。事實(shí)上,我們經(jīng)歷了一個范式轉(zhuǎn)變,使得幾乎任何自然語言查詢都可以得到回應(yīng),并且通常是和問題非常相關(guān)的回答。大語言模型解決了長期懸而未決的自然語言處理問題。這是一個研究者們幾十年來一直未能成功的領(lǐng)域,傳統(tǒng)的方法是象征學(xué)派的方法,這一學(xué)派通過分離語言的語法和語義來構(gòu)建人工智能的規(guī)則。

 

而現(xiàn)在,大語言模型采用了不同的方法,他們認(rèn)為一個詞的含義是由其所有使用上下文定義的。他們使用機(jī)器學(xué)習(xí)來執(zhí)行概率分布的計(jì)算。對于單詞,這個概率分布被用來預(yù)測在一個句子中最可能出現(xiàn)的下一個單詞。這是一個非常簡單但有效的方法。它有點(diǎn)天真,但證明它非常適合概括文本。當(dāng)然,它采用的解決方案的性質(zhì)也決定了它的局限性。語言模型非常適合創(chuàng)建一些文本的摘要,甚至寫詩。如果你讓它對20世紀(jì)中國歷史進(jìn)行摘要,它可以做得非常好。但另一方面,如果你問一些非常精確的問題或解決一些非常簡單的邏輯問題,它可能會出錯。我們可以理解這一點(diǎn),因?yàn)檫@類問題無關(guān)上下文的模型,因此,我們無法檢查文本的連貫性和它提供的答案。

 

騰訊科技:現(xiàn)在出現(xiàn)了很多新技術(shù),例如邏輯樹(LOT),它們可以幫助機(jī)器自我指導(dǎo)了解邏輯過程?,F(xiàn)在,大語言模型正在訓(xùn)練自己開發(fā)更具體或更復(fù)雜的邏輯過程。在神經(jīng)網(wǎng)絡(luò)中都有很多層,層級越高,理解越抽象。如果在這些層級較高的神經(jīng)元可能存在一些像模型或?qū)κ澜绲慕Y(jié)構(gòu)性理解的東西,這是可能的嗎?

 

約瑟夫·希發(fā)基思:在我的書中,我解釋了人類和機(jī)器開發(fā)和應(yīng)用不同類型的知識。根據(jù)知識的有效程度和普遍性,這些知識使人類和機(jī)器能夠解決不同類型的問題。一個重要的區(qū)別是“科學(xué)和技術(shù)知識“與“通過學(xué)習(xí)獲得的隱式經(jīng)驗(yàn)知識“之間的區(qū)別。例如,當(dāng)我說話、走路時,我的大腦實(shí)際上解決了非常困難的問題,但我并不理解它們的工作原理,而神經(jīng)網(wǎng)絡(luò)產(chǎn)生了同樣的隱式經(jīng)驗(yàn)知識,使我們能夠解決問題,而不必理解它們的工作原理。

 

這就是我們所說的基于數(shù)據(jù)或數(shù)據(jù)驅(qū)動的知識。相反,科學(xué)和技術(shù)知識是基于使用提供物體、構(gòu)件的物理現(xiàn)象的深入理解的數(shù)學(xué)模型,這是是非常重要的。例如,當(dāng)你建造一座橋時,(根據(jù)其原理)你可以確信這座橋在未來幾個世紀(jì)內(nèi)不會倒塌。但是,對于神經(jīng)網(wǎng)絡(luò)來說,我們可以得出某種預(yù)測,但我們不理解它們的工作原理,構(gòu)建解釋神經(jīng)網(wǎng)絡(luò)行為的理論是不可能的。這一特性使得大語言模型在沒有人類參與的關(guān)鍵應(yīng)用中存在嚴(yán)重的限制。

 

問題是這些GPT-LM系統(tǒng)是否能達(dá)到人類水平的智能。這是問題所在。我認(rèn)為關(guān)于智能是什么,以及如何實(shí)現(xiàn)智能存在很多混淆。因?yàn)槿绻覀儗χ悄軟]有明確的概念,就無法發(fā)展關(guān)于智能如何工作的理論,也無法清楚地界定智能。

 

而當(dāng)今存在著很多混亂。最近,我寫了一篇論文討論這個問題。事實(shí)上,如果你打開字典,比如牛津詞典,你會看到智能被定義為學(xué)習(xí)、理解和思考世界的能力,以及實(shí)現(xiàn)目標(biāo)和有目的行動的能力。

 

機(jī)器可以做出令人印象深刻的事情。它們在游戲中可以超越人類。它們能夠執(zhí)行各種任務(wù)。最近也取得了巨大的成就。它們可以執(zhí)行感官能力相關(guān)的任務(wù),比如視覺識別。然而,當(dāng)涉及到情境感知、環(huán)境變化的適應(yīng)和創(chuàng)造性思維時,機(jī)器無法超越人類。很簡單,GPT非常擅長于翻譯自然語言,但它無法駕駛汽車。你不能用GPT來駕駛汽車。這之間仍然存在很大的差距。我認(rèn)為我們還有很長的路要走。今天我們只有弱人工智能,我們只有通用智能的一些組件。我們需要更多的東西。

 

我認(rèn)為朝著通用智能邁出的重要一步將是自主系統(tǒng)。這個概念現(xiàn)在已經(jīng)很清楚了,自主系統(tǒng)是由進(jìn)一步自動化現(xiàn)有組織的需求產(chǎn)生的,通過用自主代理取代人類,這也是物聯(lián)網(wǎng)所設(shè)想的。事實(shí)上,我們談?wù)摰氖亲詣玉{駛汽車、智能電網(wǎng)、智能工廠、智能農(nóng)場、更智能的電信網(wǎng)絡(luò)。這些系統(tǒng)與弱人工智能存在很大的區(qū)別,因?yàn)檫@些系統(tǒng)由代理組成,它們受到實(shí)時約束,必須處理許多不同的目標(biāo)。這些目標(biāo)涉及許多不同領(lǐng)域的行動和活動的變化,而GPT在這方面并不擅長,它擅長于處理自然語言和文檔的轉(zhuǎn)換。此外,我們還需要能夠與人類代理和諧合作的系統(tǒng)。所有這些對于其他語言模型來說是不可能的。所以我們離人工通用智能還相當(dāng)遙遠(yuǎn)。當(dāng)然,一切還是歸結(jié)到我們究竟認(rèn)為什么是智能的問題上,因?yàn)槿绻悄鼙欢x為僅僅是對話和游戲,那么我們已經(jīng)達(dá)到了人工通用智能,但我不同意這個定義。

 

騰訊科技:智能過往的標(biāo)準(zhǔn)測試是圖靈測試。很明顯在對話方面GPT已經(jīng)通過了圖靈測試,但它并非是自主的智能。在這種情況下,我們?nèi)绾闻袛郃I的智能程度?

 

約瑟夫·希發(fā)基思:我最近寫了一篇論文,論證圖靈測試是不夠的。我提出了另一個測試,我稱之為替代測試。實(shí)際上,這個想法是,如果我可以用一臺機(jī)器替代執(zhí)行任務(wù)的另一個代理,那么我會說這個代理和執(zhí)行任務(wù)的代理一樣聰明。如果我可以將機(jī)器代替人類駕駛汽車、教人類或成為一名優(yōu)秀的外科醫(yī)生,那么我會說機(jī)器和人類一樣聰明。

 

因此,如果采用這個定義,替代測試,你會認(rèn)為人類的智能實(shí)際上是一種技能的組合。這樣說你明白我們離通用智能有多遠(yuǎn)了嗎?在這個替代測試中,有些行為可能必須由機(jī)器,比如機(jī)器人來完成。當(dāng)你想做園藝工作時,你需要一臺機(jī)器人來完成。GPT只是一個語言模型,它并不包含這些機(jī)器人部分。

 

騰訊科技:根據(jù)你的定義,只有當(dāng)計(jì)算和系統(tǒng)可以自動執(zhí)行大量文本并適應(yīng)不斷變化的環(huán)境時,我們才能看到人工智能和人類智能之間的差距消失。而且現(xiàn)在比如AutoGPT或Baby AGI這種應(yīng)用可以將任務(wù)分成不同的步驟,并試圖通過不同的過程實(shí)現(xiàn)任務(wù)的目標(biāo)。它在某種程度上相當(dāng)自動化。你認(rèn)為在這個過程中,它是否更接近了AGI?

 

約瑟夫·希發(fā)基思:這里有很多問題,包括系統(tǒng)工程的問題。僅僅擁有一個超級智能代理是不夠的,因?yàn)槟氵€必須保證可以解釋它的行為。這也是我在我的論文中廣泛討論的一個問題,就是大家都在談?wù)摰目山忉屓斯ぶ悄芑虬踩斯ぶ悄艿膯栴}。

 

人們不理解的是,對于神經(jīng)網(wǎng)絡(luò)來說,我們是無法理解它們的行為的。顯然你無法解釋為什么它會做出如此輸出,因?yàn)槟悴荒苡幸粋€數(shù)學(xué)模型來描述它們的行為。當(dāng)然,我們完全理解神經(jīng)網(wǎng)絡(luò)的每個節(jié)點(diǎn)的數(shù)學(xué)函數(shù)是怎么計(jì)算的。它就是輸入的線性組合,加上一些非線性函數(shù),所以我們可以理解每一個節(jié)點(diǎn)的行為。但是當(dāng)我們試圖理解整個神經(jīng)網(wǎng)絡(luò)的涌現(xiàn)屬性時,我們會感到絕望。但這不是一個特定于人工智能的問題,這是科學(xué)中的一個普遍問題。

 

你不能僅僅從氧原子和氫原子的性質(zhì)來推斷水的性質(zhì)。即使你完全理解這一點(diǎn),還有一個尺度和復(fù)雜性的問題。這是令人絕望的點(diǎn)。我們無法用技術(shù)組合的邏輯或還原論的方法來通過神經(jīng)網(wǎng)絡(luò)中元素的行為去理解它的整體行為。所以我們唯一能應(yīng)用于神經(jīng)網(wǎng)絡(luò)的方法是測試,因?yàn)槲覀儫o法驗(yàn)證它的行為,也沒法通過推理理解它。但是如果只應(yīng)用測試,這意味著你采用了一種純粹的實(shí)驗(yàn)方法,而非理論理解。所以你實(shí)際上能夠測試的內(nèi)容類型會變的很不同:例如,你無法測試整體性的安全問題,因?yàn)槟銦o法分析整體行為。但你可以防御性的進(jìn)行安全測試。

 

我們一直將測試應(yīng)用于硬件和軟件。但是為了進(jìn)行測試,你得有測試應(yīng)該持續(xù)的時間的標(biāo)準(zhǔn)。對于硬件和軟件,我們有模型和覆蓋標(biāo)準(zhǔn)。但對于神經(jīng)網(wǎng)絡(luò)來說,我們沒有這種標(biāo)準(zhǔn)。我不是說這是一個非常難解決的問題,對于神經(jīng)網(wǎng)絡(luò)來說,我們有一些備選的可能,比如說是對抗性樣本。但這些操作會破壞它們行為中的某種魯棒性。所以你看,如果我問你一個問題,你會給出一個答案。如果我稍微修改你的問題,如果你是個人類的話,你會給出一些類似的答案。但我們知道,當(dāng)我們稍微改變神經(jīng)元的輸入時,響應(yīng)可能會有很大的不同。所以這也是需要考慮的。

 

涌現(xiàn)永遠(yuǎn)也無法被理解

 

騰訊科技:涌現(xiàn)這個概念,即從基本的能力到更高級的能力的轉(zhuǎn)化,您認(rèn)為是無法解釋的嗎?

 

約瑟夫·希發(fā)基思:是的。你把一個學(xué)科比如物理學(xué)拿出來。物理學(xué)是一個非常成熟的學(xué)科。物理學(xué)家試圖在粒子理論、量子理論或廣義相對論之間建立邏輯聯(lián)系,我認(rèn)為他們在這方面永遠(yuǎn)不會成功,因?yàn)榇嬖谝粋€尺度問題。我認(rèn)為在任何類型的系統(tǒng)中都存在類似的問題。

 

騰訊科技:那么在你看來,由于這種無法解釋的出現(xiàn)現(xiàn)象,我們實(shí)際上無法預(yù)測大語言模型到底能做到什么?

 

約瑟夫·希發(fā)基思:很明顯,我們無法建立模型去預(yù)測它能做什么。我們無法建立模型,我指的是數(shù)學(xué)模型。在這里,人工智能社區(qū)使用模型這個詞來表示神經(jīng)網(wǎng)絡(luò),這是一種混淆的來源。

 

我認(rèn)為我們應(yīng)該采取另一種整體的方法。因?yàn)槲覀冃尾怀上嚓P(guān)的模型,也許我們可以有一種形成一種基于測試和經(jīng)驗(yàn)觀察的理論。它應(yīng)該是一種關(guān)于統(tǒng)計(jì)學(xué)性質(zhì)的測試?yán)碚摗?/strong>但依照我的理解,我們有些需求在當(dāng)今的神經(jīng)網(wǎng)絡(luò)中從技術(shù)上很難被滿足。

 

騰訊科技:是的。所以為了理解它們所涌現(xiàn)出的這些能力,我們需要建立類似心理學(xué)這樣的學(xué)科去理解它?

 

約瑟夫·希發(fā)基思:完全準(zhǔn)確。這是個好問題。但如果用GPT本身去建立這樣的理解會有點(diǎn)問題。因?yàn)閷?shí)際上有些人現(xiàn)在說,GPT成功通過了成為律師或醫(yī)生的考試,那么為什么這樣的GPT不能成為醫(yī)生或律師呢?

 

我認(rèn)為這是一個非常有趣的論點(diǎn),但這涉及到我之前提到的魯棒性問題。同樣是通過考試,人類與神經(jīng)網(wǎng)絡(luò)之間的能力是非常不同的。

 

魯棒性的問題就是如果說如果讓一個神志正常的人去回答問題,如果你稍微改變一下問題,答案會是相似。而GPT并不能保證答案的統(tǒng)一性。另一個問題是,人類可以依靠邏輯控制他們的行為和應(yīng)該說的話。但因?yàn)樯窠?jīng)網(wǎng)絡(luò),比較典型的就像ChatGPT 對于它所做的事情沒有受到語義上的控制,所以它可能會做一些明顯錯誤的事情。有理智的人都不會犯這種錯誤。所以整個論證的結(jié)論是,如果 GPT 可以有邏輯地控制它所說的事情的一致性,而且它還具有相對應(yīng)的魯棒性的話,那么允許 GPT 成為律師就很棒。但我們實(shí)際上離這種程度的人工智能還很遠(yuǎn)。

 

騰訊科技:ChatGPT為什么會這么難以控制?是因?yàn)樗鳛橛?jì)算機(jī)的一種分布式運(yùn)算的特性嗎?

 

約瑟夫·希發(fā)基思:GPT 是一種不同類型的計(jì)算機(jī)。它是一臺自然計(jì)算機(jī)。它不是你編寫程序時執(zhí)行程序的計(jì)算機(jī),你對系統(tǒng)可以做和不能做有絕對控制。當(dāng)你訓(xùn)練神經(jīng)網(wǎng)絡(luò)時,你就失去了這種控制。這些系統(tǒng)可以具有某種意義上的創(chuàng)造性,因?yàn)樗鼈兙哂幸欢ǖ淖杂啥取?/span>

 

現(xiàn)在,如果我們能夠控制這些自由度并理解它們的行為,那就沒問題了。問題是我們無法控制神經(jīng)網(wǎng)絡(luò)的這種巨大的自由度,理論上去控制它幾乎是無望的。你可以對它們的行為做一個粗略的近似,但你不會有準(zhǔn)確的結(jié)果。如果你有一個傳統(tǒng)計(jì)算機(jī)程序,即使它是一個很長的程序,你仍然可以提取語義模型并理解里面發(fā)生了什么。這是一個非常重要的區(qū)別。

 

騰訊科技:能詳細(xì)講講自然機(jī)器的概念嗎?

 

約瑟夫·希發(fā)基思:自然機(jī)器就是利用了自然現(xiàn)象的智能。比如神經(jīng)網(wǎng)絡(luò)就是一種類似于量子計(jì)算機(jī)或其他計(jì)算機(jī)的自然機(jī)器。在過去,當(dāng)我還是學(xué)生的時候,我們也有很多計(jì)算機(jī)。在構(gòu)建這種自然機(jī)器的過程中,我們會利用物理現(xiàn)象中的一些原理,因?yàn)槿魏挝锢憩F(xiàn)象都包含了一些信息內(nèi)容。比如當(dāng)我扔一塊石頭時,石頭就像一臺計(jì)算機(jī),它計(jì)算出一個拋物線,這就形成了一種運(yùn)算法則。你可以觀察任何現(xiàn)象,并且可以利用自然現(xiàn)象來制造計(jì)算機(jī)。但是這些計(jì)算機(jī)不是預(yù)先編程的。它們利用了物理學(xué)或數(shù)學(xué)中的某些規(guī)律。神經(jīng)網(wǎng)絡(luò)就是這樣的情況。

 

騰訊科技:讓我們談?wù)勀銜械钠渌恍﹥?nèi)容,你曾經(jīng)討論過一些研究和創(chuàng)新的問題。我們都知道,雖然神經(jīng)網(wǎng)絡(luò)的許多理念來自歐洲或日本,但使用它并產(chǎn)出產(chǎn)品的公司,如OpenAI和Deepmind都是在美國。你認(rèn)為這是什么原因呢?

 

約瑟夫·希發(fā)基思:關(guān)注度和創(chuàng)新能力之間是存在差異的。因?yàn)閯?chuàng)新是將研究應(yīng)用于開發(fā)新產(chǎn)品或服務(wù),以實(shí)現(xiàn)技術(shù)突破的能力。

 

我認(rèn)為這是美國的一個非常強(qiáng)大的優(yōu)勢,他們在創(chuàng)新方面做得很出色。這始于加利福尼亞,在那里有我所說的創(chuàng)新生態(tài)系統(tǒng)。創(chuàng)新生態(tài)系統(tǒng)匯集了非常優(yōu)秀的學(xué)術(shù)機(jī)構(gòu)、大型科技公司、初創(chuàng)企業(yè)以及風(fēng)險(xiǎn)投資和資本。這種一致性可以有效而高效地轉(zhuǎn)化新的成果和應(yīng)用。其他國家也采用了這種模式。創(chuàng)新生態(tài)系統(tǒng)的理念是一種普遍的思想,像以色列和瑞士這樣的小國家也取得了很大的成功。所以總結(jié)一下,我認(rèn)為要實(shí)現(xiàn)創(chuàng)新,你應(yīng)該將卓越的大學(xué)和卓越的產(chǎn)業(yè)聯(lián)系在一起。這不僅取決于物質(zhì)資源,還取決于文化因素、教育以及制度應(yīng)該認(rèn)可個體的創(chuàng)造力和創(chuàng)業(yè)精神。

 

神經(jīng)網(wǎng)絡(luò)神諭:一種無法被理解的新科學(xué)

 

騰訊科技:你剛剛提到神經(jīng)網(wǎng)絡(luò)是模擬生物大腦和物理世界的過程。在我們對生物大腦的理解仍然非常有限的情況下,是如何進(jìn)行這種模擬的?這種神經(jīng)網(wǎng)絡(luò)與我們的生物大腦之間的差距有多大?

 

約瑟夫·希發(fā)基思:這是個好問題。我剛才說神經(jīng)網(wǎng)絡(luò)是一種自然計(jì)算機(jī),采用了與傳統(tǒng)計(jì)算機(jī)不同的范式。具體來說,神經(jīng)網(wǎng)絡(luò)是受到我們大腦中的神經(jīng)運(yùn)作啟發(fā)所產(chǎn)生的。它模仿了一些神經(jīng)運(yùn)作的自然過程。然而,神經(jīng)網(wǎng)絡(luò)只是模仿了大腦的計(jì)算原理,而大腦是更加復(fù)雜的,因?yàn)樗诓煌膮^(qū)域有著不同的結(jié)構(gòu)和功能。而這些不同的功能是建立在更復(fù)雜的架構(gòu)之上的,我們?nèi)栽谂θダ斫馑?/strong>而且大腦的神經(jīng)網(wǎng)絡(luò)是一種并行計(jì)算模式。神經(jīng)網(wǎng)絡(luò)在這方面也與它有很多不同之處。

 

還應(yīng)該理解的是,如果只研究生物水平的大腦,我認(rèn)為我們無法完全捕捉到所有的人類意圖。舉個例子,用你的筆記本電腦運(yùn)行一個軟件。然后我給你電子儀器來通過測量研究這個硬件怎么工作。如果你已經(jīng)編譯了程序,所有的知識都在硬件層面上以電信號的形式呈現(xiàn)了。但只通過分析這個電信號,是不可能找到有問題的軟件源代碼的,因?yàn)槟阌羞@個尺度問題。我認(rèn)為這是理解人類智能的關(guān)鍵,我們必須研究大腦,但不僅僅是大腦。因此,大腦的計(jì)算現(xiàn)象是電信號、物理化學(xué)現(xiàn)象和心理現(xiàn)象的結(jié)合。

 

而今天的問題是如何將心理現(xiàn)象與大腦計(jì)算相連接。這是我認(rèn)為的一個重大挑戰(zhàn)。如果我們在這方面不成功,我認(rèn)為我們將永遠(yuǎn)無法理解人類智能。

 

騰訊科技:你曾提到人工智能正在為發(fā)展人類知識開辟一條新的道路,突破人類大腦處理復(fù)雜性問題的限制。那您覺得AI可以在哪些點(diǎn)上完全的超越人類?

 

約瑟夫·希發(fā)基思:是的。在我的書中,我解釋了機(jī)器可以幫助我們克服一些思維的限制。這一點(diǎn)已經(jīng)得到了心理學(xué)家的確認(rèn)。這里的限制包括人的思維受到認(rèn)知復(fù)雜性的限制。我們?nèi)祟悷o法理解超過五個獨(dú)立參數(shù)之間的關(guān)系。這也是我們發(fā)展的理論都很簡單的原因。我們沒有一個包含1000個獨(dú)立參數(shù)形成的理論。

 

我認(rèn)為現(xiàn)在可以發(fā)展出一個擁有數(shù)千個參數(shù)的理論。我認(rèn)為今天我們可以借助超級計(jì)算機(jī)和人工智能構(gòu)建我所稱之為"神經(jīng)網(wǎng)絡(luò)神諭"的東西。神經(jīng)網(wǎng)絡(luò)神諭是一個經(jīng)過訓(xùn)練的神經(jīng)網(wǎng)絡(luò),用于理解和分析復(fù)雜的現(xiàn)象或復(fù)雜的系統(tǒng)。這些復(fù)雜現(xiàn)象可能依賴于成千上萬個參數(shù)。以物理現(xiàn)象為例,現(xiàn)在有一些有趣的項(xiàng)目,比如訓(xùn)練神經(jīng)網(wǎng)絡(luò)來預(yù)測地震。這些項(xiàng)目的參與者不需要擁有太多的科學(xué)知識,只需要用數(shù)據(jù)庫喂養(yǎng)模型。他們手中都有全球各地的地震數(shù)據(jù)。他們發(fā)表了一篇論文,解釋說用非常簡單的訓(xùn)練過程,他們可以做出比使用現(xiàn)有復(fù)雜理論更好的預(yù)測。

 

所以我認(rèn)為這是未來非常重要的方向。我們將擁有更多幫助我們預(yù)測復(fù)雜現(xiàn)象或復(fù)雜系統(tǒng)發(fā)展的"神諭"。例如,我們將擁有智能數(shù)字孿生系統(tǒng),這些系統(tǒng)將幫助我們進(jìn)行預(yù)測,但并不理解(預(yù)測的邏輯)。因此我們將擁有一種新型的科學(xué)。我認(rèn)為能夠使用這種科學(xué)是很有趣的,但我們也需要控制所產(chǎn)生的知識的質(zhì)量。你應(yīng)該思考這個問題,因?yàn)槿祟悓⒉辉侏?dú)自享有產(chǎn)生知識的特權(quán)?,F(xiàn)在人得與機(jī)器競爭了。

 

所以對我們的社會來說,重要的問題是我們是否能夠與機(jī)器合作,掌握由機(jī)器輔助開發(fā)的知識的發(fā)展和演進(jìn)。或者我們將發(fā)展出一種由人驅(qū)動的科學(xué)和機(jī)器驅(qū)動的科學(xué)并存的情況。如果我們擁有這些機(jī)器所推動的并行科學(xué),那將是一個有趣的情景。

 

騰訊科技:你提到人類思維也是一種計(jì)算系統(tǒng)。與自動機(jī)器相比,這兩種系統(tǒng)在其組成部分上非常相似。所以與強(qiáng)人工智能相比,人類具有哪些獨(dú)特的能力?

 

約瑟夫·希發(fā)基思:這是一個非常好的問題。因?yàn)槲乙恢痹谘芯孔灾飨到y(tǒng),所以我嘗試了設(shè)計(jì)自動駕駛汽車。對于自動駕駛汽車,你會有一些功能,比如感知,將感官信息轉(zhuǎn)化為概念。你會有一個反射功能,基于外部世界建立模型,然后做出決策。做決策意味著管理多個不同的目標(biāo)。為了實(shí)現(xiàn)這些目標(biāo),你需要規(guī)劃等等。自主系統(tǒng)和人類思維之間確實(shí)有很多相似之處。

 

然而人和自主系統(tǒng)也存在一些重要的差異。一個非常重要的差異是人類擁有我所稱之為常識知識。常識知識是我們從出生以來發(fā)展起來的知識網(wǎng)絡(luò)。我們擁有一種機(jī)制,我們不知道它是如何工作的。但每天通過經(jīng)驗(yàn),你會豐富這個網(wǎng)絡(luò),并獲得理解世界的常識知識。對于人類來說,他進(jìn)行思考時,會將感官信息與這個常識概念模型連接起來。然后吧分析結(jié)果從概念模型反饋到感官信息。這與神經(jīng)網(wǎng)絡(luò)有很大的區(qū)別。讓我舉個例子:我向你展示一塊被雪覆蓋了一部分的停車標(biāo)志,你毫無疑問會立刻說這是停車標(biāo)志。

 

現(xiàn)在,如果你想訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)來識別部分被雪覆蓋的停車標(biāo)志,這意味著由于神經(jīng)網(wǎng)絡(luò)無法將感官信息與概念模型連接起來,你將不得不訓(xùn)練神經(jīng)網(wǎng)絡(luò)去了解所有的天氣條件下的情況。這就是為什么兒童比神經(jīng)網(wǎng)絡(luò)更容易學(xué)習(xí)的原因。如果你向兒童展示一次汽車,他下次就會說這是一輛汽車。因?yàn)樗麄兺ㄟ^觀察形成了一個抽象模型,知道什么是一輛汽車。他們可以將感官信息與這個概念模型聯(lián)系起來。這是當(dāng)今人工智能面臨的最大挑戰(zhàn)之一。這也是自動駕駛汽車所面臨的一個重要問題。自動駕駛汽車應(yīng)該能夠收集感官信息,并將這些信息與地圖等進(jìn)行連接。如果它們僅僅根據(jù)感官信息進(jìn)行決策可能會造成危險(xiǎn)。我們之前就有過這樣的例子。

 

我們并不清楚為什人類能夠在缺乏大量分析和計(jì)算的情況下理解復(fù)雜的情境。我們之所以能夠做到這一點(diǎn),是因?yàn)槲覀兛梢詫⒏泄傩畔⑴c某些概念性信息、抽象信息相連接。因此在我們完全不會出錯的地方,神經(jīng)網(wǎng)絡(luò)可能會出現(xiàn)很多問題。我記得有一次我開的特斯拉突然停下來,因?yàn)樗J(rèn)為月亮和樹木的組合是是一個黃色的交通燈。這種情況絕對不會發(fā)生在人身上,因?yàn)槿祟惪梢詫⑿畔⒅糜诒尘爸羞M(jìn)行理解。我立即就能理解到那是月亮,因?yàn)榻煌舨豢赡茱h在天空中。

 

因此當(dāng)有人說這些系統(tǒng)在某些方面可以與人類競爭時,也許它確實(shí)能。但是人類智能的特點(diǎn)是你能夠理解世界,可以有目的地提問。人工智能離這個目標(biāo)還很遠(yuǎn)。

 

騰訊科技:因?yàn)槟阊芯苛俗詣玉{駛,這已經(jīng)包含了對環(huán)境、認(rèn)知和感知的理解。Lecun認(rèn)為因?yàn)槲覀兪且曈X動物,我們對世界的理解很大程度上基于視覺。如果大語言模型能夠做做到多模態(tài),也能從環(huán)境中學(xué)習(xí),他們能夠理解世界本身?

 

約瑟夫·希發(fā)基思:我認(rèn)為如果AI不能將具體知識與符號知識相連接,僅僅依靠大語言模型的方法是做不到對世界的理解的。只有通過將具體的知識,也就是數(shù)據(jù)庫里的知識與符號知識相結(jié)合,人工智能才能實(shí)現(xiàn)這一點(diǎn)。如果它做不到,那人類智能將優(yōu)于機(jī)器。對此我非常確信。我知道很多人會不同意我的觀點(diǎn),因?yàn)橛?jì)算智能可以通過數(shù)百萬個參數(shù)對數(shù)據(jù)進(jìn)行分析和提取。人類在這方面做得不好。但是人類擅長處理抽象問題。

 

人類智能依賴于使用類比和隱喻的能力。即使我們不理解人類創(chuàng)造力是如何工作的,我仍然可以說這非常重要。因?yàn)樵谌祟惖膭?chuàng)造力中應(yīng)該去區(qū)分發(fā)現(xiàn)和發(fā)明。機(jī)器可以通過使用數(shù)據(jù)分析從更復(fù)雜、更龐大的數(shù)據(jù)中發(fā)現(xiàn)一些東西。但是發(fā)明是另一回事。發(fā)明是說,我發(fā)明了某個理論。我認(rèn)為我們距離理解人類智能的這部分能力還隔得很遠(yuǎn)。

 

但發(fā)現(xiàn)的能力也是有用的,因?yàn)樗梢詭椭祟惒聹y更普遍的規(guī)律。這是我們自己的思維無法發(fā)現(xiàn)。但我不認(rèn)為機(jī)器將能夠創(chuàng)造新的科學(xué)理論或者創(chuàng)造新機(jī)器。它們將提供它們擁有的知識的綜合。就像蒸餾過程一樣,它們擁有大量的知識,然后將其提煉并呈現(xiàn)給你。這是了不起的。但這還不夠。要實(shí)現(xiàn)更多的可能還是需要人類的能力。

 

在我寫的一篇論文中,我解釋了實(shí)際上存在不同類型的智能。人類智能是非常特殊的,因?yàn)槿祟愔悄艿陌l(fā)展的基礎(chǔ)是我們努力生活在的這個特別的世界。如果我們在另一個世界出生,也許我們會發(fā)展出另一種智能。智能是產(chǎn)生知識、解決問題的能力。當(dāng)然,現(xiàn)在我們看到機(jī)器可以解決一些我們無法解決的問題,它們實(shí)際上擁有另一種智能。這很棒,我們有著某種互補(bǔ)性。

 

科技的發(fā)展應(yīng)該優(yōu)先考慮改善人類的生活

 

騰訊科技:我們剛才進(jìn)行了一些哲學(xué)討論,現(xiàn)在會討論一些關(guān)于AI對社會的道德影響的問題。第一個問題是,與樂觀認(rèn)為新技術(shù)將創(chuàng)造足夠的新工作崗位不同,你提到人工智能將導(dǎo)致嚴(yán)重的失業(yè)問題。而且這些問題能否在不改變社會經(jīng)濟(jì)體系的情況下難以得到解決。你能解釋一下為什么這樣說嗎?因?yàn)楹芏嗳藢Υ烁械綋?dān)憂。

 

約瑟夫·希發(fā)基思:AI的發(fā)展會增加生產(chǎn)力。在經(jīng)濟(jì)學(xué)中有一些非常簡單的規(guī)律:如果生產(chǎn)力增加,那么你就需要越來越少的人來做同樣的工作。這一點(diǎn)非常明確。

 

現(xiàn)在有些人認(rèn)為AI會創(chuàng)造一些就業(yè)機(jī)會,尤其對高素質(zhì)的人來說會創(chuàng)造某些新的就業(yè)機(jī)會。但是如果你權(quán)衡AI創(chuàng)造的工作和因?yàn)樗サ墓ぷ?,你會發(fā)現(xiàn)AI的影響一定是負(fù)面的。

 

現(xiàn)在每個人都同意AI會導(dǎo)致失業(yè)問題。這是顯而易見的。但在人類歷史的整個過程中技術(shù)都能夠提高生產(chǎn)力,這最終改善了人們的生活質(zhì)量。幾個世紀(jì)以來,人們的工作時間變少了。我們應(yīng)該考慮通過適當(dāng)?shù)慕?jīng)濟(jì)社會改革來解決這個問題。包括教育改革,因?yàn)槟惚仨毥逃藗儊磉m應(yīng)這個新的時代。

 

騰訊科技:在工業(yè)革命中,最初人們的生活并沒有得到很大改善。他們在工廠里工作,一天可能要工作14個小時。你覺得技術(shù)革新初期,人的生活情況會不會更糟?

 

約瑟夫·希發(fā)基思:不,我認(rèn)為工業(yè)革命總體上還是提高了人類的生活質(zhì)量。這是問題的核心。我認(rèn)為今天社會的問題在于沒有認(rèn)真對待這個目標(biāo),他們認(rèn)為技術(shù)進(jìn)步是該被優(yōu)先考慮的。但我認(rèn)為最優(yōu)先考慮的是如何改善人類的生活,這應(yīng)該是首要任務(wù)。至少我是一個人道主義者。

 

騰訊科技:我也是一個人道主義者,明白這個問題有多嚴(yán)重。您覺得除了失業(yè),AI還可能帶來嚴(yán)重后果嗎?

 

約瑟夫·希發(fā)基思:是有這種可能的。但問題是,有些人說人工智能會對人類產(chǎn)生威脅,乃至于我們可能會成為機(jī)器的奴隸。我不喜歡這種說法。我在我的書中說了技術(shù)是中立的。你有原子能,你可以用原子能來發(fā)電,也可以用它來制造炸彈殺人。這是你的決定。如果你真的有思考過這個問題,那所有這些說人工智能對人類構(gòu)成威脅的人都是完全愚蠢的。因?yàn)榧夹g(shù)的使用是人類的責(zé)任。

 

我認(rèn)為這些人之所以這么說,只是因?yàn)樗麄円蚕霚p少人類對此的責(zé)任。因?yàn)樗麄兿M藗兘邮苋斯ぶ悄?,這太糟糕了。人們應(yīng)該負(fù)起責(zé)任應(yīng)對可能的問題。我不知道中國的情況怎么樣,但不幸的是,在西方世界人們對此并不太敏感。他們認(rèn)為技術(shù)(的負(fù)面影響)是命中注定的,這非常糟糕。我在我的書中也說過,風(fēng)險(xiǎn)不在于人類被機(jī)器所統(tǒng)治,而在于人類接受機(jī)器做出所有關(guān)鍵決策。如果我有一個奴隸,它可以按我的心愿做任何事情,就像那些阿拉伯神話里描繪的那樣,那最終我將成為我的奴隸的奴隸。所以危險(xiǎn)來自于人們。我在法國的學(xué)校中也看到了這一點(diǎn),如果一個孩子能接觸到聊天機(jī)器人,他會變得寫不出作文,組織不了自己的思維,并最終依賴于機(jī)器。這對人類來說是一個并不樂觀的情景。

 

騰訊科技:前幾天很多知名AI領(lǐng)域的人物,包括Sam Altman都簽署了一個AI滅絕威脅的聲明,您在書中說目前媒體和業(yè)內(nèi)人士都在夸大AI的能力和威脅,這算不算事其中一例?您覺得當(dāng)下范式的AI有帶來人類文明危機(jī)的可能嗎?

 

約瑟夫·希發(fā)基思:AI帶來的危險(xiǎn)是明確的,主要可能來自于對它的濫用。但不幸的是,今天我們沒有針對這種危險(xiǎn)的相關(guān)法規(guī)。因?yàn)檎恢肋@些東西是如何開發(fā)的,缺乏透明度也就意味著無法應(yīng)用法規(guī)。這對社會來說太糟糕了。AI非??赡鼙粸E用,因此我也簽署了請?jiān)笗?,支持對公司做調(diào)查。

 

技術(shù)是非常好的,我沒有反對技術(shù)。我們擁有聊天機(jī)器人是一件很棒的事情,我們應(yīng)該在這種方向上取得進(jìn)展。人工智能、包括通用人工智能都是好事,我不反對這些。我所反對的是對這些技術(shù)的濫用。各個國家、國際機(jī)構(gòu)應(yīng)該強(qiáng)制執(zhí)行法規(guī),雖然因?yàn)榇笳Z言模型本身缺乏解釋性,這存在著一定困難。但我們依然可以要求開發(fā)公司達(dá)到某種透明度,例如講明數(shù)據(jù)集的構(gòu)建方式,以及這些引擎的訓(xùn)練方式。

 

騰訊科技:最近美國國會就人工智能和標(biāo)準(zhǔn)人舉行了聽證會。包括Sam Altman,Marcus都參加了,歐洲也正在通過相關(guān)的法案。您認(rèn)為這是個好的開始嗎?

 

約瑟夫·希發(fā)基思:但問題在于,當(dāng)人們談?wù)摪踩娜斯ぶ悄軙r,很多時候說的并不是同一件事。作為一名工程師,對我來說安全有著非常明確的定義。而其他人可能認(rèn)為安全的人工智能意味著能像相信人類一樣相信人工智能。這個想法的底層邏輯是把人工智能視為人類,而不是機(jī)器。還有許多其他論文認(rèn)為,人工智能所做的事情并不重要,重要的是人工智能的意圖,因此你得能把意圖和結(jié)果分開等等。所以有很多討論。我希望所有這些討論能夠帶來一些嚴(yán)肅的法規(guī),而不只是愿望清單。

 

騰訊科技:所以讓我們聊些更光明的可能性。如果人工智能不被濫用,它在什么方面可以改變我們的生活?

 

約瑟夫·希發(fā)基思:如果我們不濫用人工智能,那未來相當(dāng)可期。這是一場巨大的革命。它有巨大的潛力來發(fā)展知識,以應(yīng)對人類今天面臨的一些重大挑戰(zhàn),如氣候變化、資源管理、人口問題、大流行病等等。

 

我之前說過,人與機(jī)器之間存在著明顯的互補(bǔ)性。對于人類來說,最好的情景是機(jī)器和人類之間達(dá)成一種和諧合作。而且在這個過程中,人類將能夠掌握知識的發(fā)展、應(yīng)用的所有過程,確保不會讓這些機(jī)器自身為我們做出關(guān)鍵決策。

 

未來的挑戰(zhàn)是我們找到正確的平衡,找到人類和機(jī)器之間角色分配的正確平衡。我希望我們能夠成功做到這一點(diǎn)。

 

本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請?jiān)谖闹凶⒚鱽碓醇白髡呙帧?/p>

免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com