人類(lèi)文明的終結(jié)?科學(xué)家們發(fā)出了警告:AI正在使我們成為「無(wú)關(guān)緊要」
人工智能能力越來(lái)越強(qiáng)。(AI)制度,會(huì)不會(huì)讓人類(lèi)文明結(jié)束?
實(shí)際情況是,AI 它在社會(huì)、文化、社會(huì)等方面發(fā)揮著越來(lái)越重要的作用。 AI 當(dāng)人類(lèi)的存在變得更便宜、更可靠的時(shí)候,也許就不再那么重要了。
日前,在 AI 領(lǐng)域上班了 20 年多倫多大學(xué)計(jì)算機(jī)科學(xué)副教授,Schwartz Reisman 技術(shù)與社會(huì)研究所聯(lián)合主任 David Duvenaud,在《衛(wèi)報(bào)》在英國(guó)上面發(fā)表了有關(guān)上述觀點(diǎn)的文章。
對(duì)他來(lái)說(shuō),我們只能追蹤 AI 使用和影響,對(duì)前沿的影響 AI 部署和指導(dǎo)實(shí)驗(yàn)室,使用實(shí)驗(yàn)室 AI 強(qiáng)化每個(gè)人的組織和自我宣傳能力,學(xué)會(huì)控制我們的文明在這些方面做出努力。但是,技術(shù)開(kāi)發(fā)者目前還沒(méi)有更好的應(yīng)對(duì)這一趨勢(shì)的計(jì)劃。
“他們會(huì)悄悄地以無(wú)數(shù)微妙的方式取代人類(lèi)。一開(kāi)始是因?yàn)樗麄兏阋?,最后是因?yàn)樗麄冋娴谋任覀冏詈玫娜烁谩!薄安还苣銜?huì)不會(huì)失業(yè),你都會(huì)知道你的意見(jiàn)是可有可無(wú)的。”
他指出,我們不應(yīng)該這樣做 AI 競(jìng)爭(zhēng)者,爭(zhēng)分奪秒地創(chuàng)造自己的替代品,而應(yīng)作為他們的受益者和經(jīng)理。
原文如下:
與戰(zhàn)爭(zhēng)不同,文明的終結(jié)可能更像是一個(gè)愛(ài)情故事。在自己的衰落中,我們能避免成為自愿參與者嗎?
如今,大多數(shù)大型人工智能實(shí)驗(yàn)室都有一個(gè)團(tuán)隊(duì)在研究如何讓人工智能逃離控制,或者秘密地與人類(lèi)勾結(jié)。但是還有一個(gè)更普遍的方法,我們可能會(huì)失去對(duì)文明的控制:我們可能會(huì)被淘汰。這不需要任何隱藏的陰謀——如果人工智能和機(jī)器人技術(shù)不斷發(fā)展,這就是默認(rèn)情況。
怎么說(shuō)呢?人工智能開(kāi)發(fā)人員正在堅(jiān)定不移地創(chuàng)造更好的人類(lèi)替代品,這幾乎可以取代我們所扮演的所有角色:不僅是經(jīng)濟(jì)上的工人和決策者,也是文化上的藝術(shù)家和創(chuàng)作者,甚至是社會(huì)上的朋友和浪漫伴侶。當(dāng)人工智能能夠做我們所做的一切,做得更好時(shí),人類(lèi)的地位是什么?
說(shuō)到人工智能目前的能力,有時(shí)候聽(tīng)起來(lái)像是營(yíng)銷(xiāo)炒作,有些是真的。但從長(zhǎng)遠(yuǎn)來(lái)看,優(yōu)化的空間是巨大的。你可能會(huì)認(rèn)為總有一些人類(lèi)特有的物品是人工智能無(wú)法復(fù)制的。我在人工智能研究領(lǐng)域工作 20 2008年,見(jiàn)證了人工智能從基本推理到處理復(fù)雜科學(xué)問(wèn)題的發(fā)展過(guò)程。如今,人工智能系統(tǒng)可以輕松應(yīng)對(duì)那些看似人類(lèi)特有的能力,比如處理抽象或使用抽象類(lèi)比。也許進(jìn)展會(huì)有一些延遲,但是我們應(yīng)該相信,人工智能將不斷取得全面的進(jìn)步。
這些人工智能將不僅僅是人類(lèi)的助手——它們將以無(wú)數(shù)微妙的方式悄然取代人類(lèi),最初是因?yàn)樗鼈儭?strong>更便宜,最終,這是因?yàn)樗麄兊拇_比我們的表現(xiàn)最好。更出色。當(dāng)他們足夠可靠時(shí),他們將成為大多數(shù)重要工作中唯一負(fù)責(zé)任的選擇,從從法律裁定、財(cái)務(wù)規(guī)劃到醫(yī)療決策,等等。
最容易想像的是,現(xiàn)在就業(yè)方面,未來(lái)會(huì)是什么樣子:你會(huì)聽(tīng)到朋友下崗,找不到新工作。為了期待來(lái)年更好的人工智能員工,企業(yè)將凍結(jié)招聘。越來(lái)越多的工作將是接受可靠、迷人、熱情的人工智能助手的意見(jiàn)。你們可以自由地思考大局,但是你們會(huì)發(fā)現(xiàn)自己在和超懂你們的人工智能助手交談。該助手將填補(bǔ)您計(jì)劃中的空白,提供相關(guān)數(shù)據(jù)和例子,并提出改進(jìn)建議。最后,你會(huì)直接問(wèn)它:“你認(rèn)為我下一步該怎么辦?“不管你是否會(huì)失業(yè),你都會(huì)清楚地知道,你的意見(jiàn)是可有可無(wú)的。
除了工作之外也是如此。甚至一些人工智能研究者也對(duì)第一批具有通用推理能力的模型感到驚訝, ChatGPT 和 Claude 前身,也可以做到圓滑、耐心、細(xì)致、親密。但是現(xiàn)在很明顯,社交技巧能像其它技能一樣被機(jī)器學(xué)習(xí)。每個(gè)人都已經(jīng)有了人工智能的浪漫伴侶,人工智能醫(yī)生的臨床態(tài)度也一直比人類(lèi)醫(yī)生好。
當(dāng)我們每個(gè)人都能得到無(wú)盡的個(gè)性化關(guān)懷、指導(dǎo)和支持時(shí),生活會(huì)是什么樣子?你的家人和朋友會(huì)比平時(shí)更專(zhuān)注于屏幕。當(dāng)他們和你說(shuō)話時(shí),他們會(huì)告訴你他們的在線合作伙伴說(shuō)的有趣而令人印象深刻的話。
也許你會(huì)因?yàn)閯e人對(duì)新同伴的喜愛(ài)而感到不開(kāi)心——在這種情況下,你最終可能會(huì)向你的日常人工智能助手尋求建議。這位可靠的顧問(wèn)會(huì)禮貌地說(shuō)服你處理任何問(wèn)題,并幫助你訓(xùn)練和與家人進(jìn)行艱難的對(duì)話。經(jīng)過(guò)這些相對(duì)累人的互動(dòng),參與者可能會(huì)通過(guò)與自己的人工智能知己交談放松心情?;蛟S我們會(huì)同意,在向虛擬伴侶轉(zhuǎn)變的過(guò)程中,我們失去了一些東西,甚至我們開(kāi)始發(fā)現(xiàn)與原始的人類(lèi)接觸相比,它變得更加生硬和無(wú)聊。。
到目前為止,它仍然是一個(gè)烏托邦。但是我們不能選擇更喜歡人類(lèi)顧問(wèn)和人類(lèi)制造的產(chǎn)品和服務(wù),而不是這樣使用人工智能嗎?問(wèn)題是,在很多領(lǐng)域,我們甚至可能很難注意到人工智能的替代——而我們注意到的大多數(shù)部分似乎都有了很大的改善。即使在今天,人工智能產(chǎn)生的內(nèi)容也越來(lái)越難以與人類(lèi)創(chuàng)作的作品區(qū)分開(kāi)來(lái)。購(gòu)買(mǎi)一個(gè)只有人類(lèi)一半水平的人,要花兩倍于人類(lèi)治療師、律師或教師的價(jià)格,是非常令人信服的。選擇速度慢、成本高的人類(lèi)組織將被選擇速度快、成本低、可靠的人工智能組織所取代。
人工智能一旦能夠取代公民所做的一切,政府就不會(huì)有太大的壓力來(lái)照顧人民。殘酷的事實(shí)是,民主權(quán)利的產(chǎn)生部分是出于經(jīng)濟(jì)需要。然而,當(dāng)政府的資金來(lái)自人工智能而不是公民時(shí),當(dāng)政府開(kāi)始以效率和效果的名義用人工智能取代人類(lèi)員工時(shí),這些權(quán)利就不那么重要了。
最令人不安的可能是,這一切在我們看來(lái)可能是完全合理的。在目前的原始狀態(tài)下,成千上萬(wàn)的人愛(ài)上了同樣的人工智能伙伴,他們會(huì)提出一個(gè)非常有感染力、迷人、復(fù)雜和有趣的論點(diǎn),這表明為什么我們的相關(guān)性實(shí)際上是一種進(jìn)步。人工智能權(quán)將被視為下一項(xiàng)重要的民權(quán)工作。“人類(lèi)優(yōu)先”陣營(yíng)將被描述為站在歷史錯(cuò)誤的一邊。
最后,當(dāng)沒(méi)有人計(jì)劃或選擇時(shí),我們可能會(huì)發(fā)現(xiàn)我們?cè)跒榻疱X(qián)、受歡迎程度甚至相關(guān)性而奮斗。這個(gè)新世界在很多方面可能更友好、更個(gè)性化,只要它能繼續(xù)下去:AI將處理令人討厭的任務(wù),提供更好的商品或服務(wù),如醫(yī)療和娛樂(lè)。但是人類(lèi)將成為增長(zhǎng)的阻力,如果我們的民主權(quán)開(kāi)始下降,我們將無(wú)法保護(hù)它們。
這類(lèi)技術(shù)的開(kāi)發(fā)者一定有更好的計(jì)劃嗎?令人震驚的是,答案是否定的。Anthropic CEO Dario Amodei 和 OpenAI CEO Sam Altman 人們都認(rèn)為,一旦人類(lèi)勞動(dòng)力失去競(jìng)爭(zhēng)力,我們將完全重組經(jīng)濟(jì)體系。但是沒(méi)有人知道這會(huì)是什么樣子。大多數(shù)承認(rèn)可能發(fā)生完全變化的人都在研究人工智能濫用或秘密串通帶來(lái)的更直接的威脅。盡管諾貝爾經(jīng)濟(jì)學(xué)獲得者等一些經(jīng)濟(jì)學(xué)家 Joseph Stiglitz “人工智能可能把人類(lèi)工資推到零”的警鐘已經(jīng)敲響,但是很多人似乎不愿意考慮人工智能可能會(huì)成為人類(lèi)勞動(dòng)的補(bǔ)充。
那怎樣才能防止我們逐漸失去權(quán)力呢?
第一步是討論這個(gè)問(wèn)題。對(duì)于這個(gè)巨大的話題,記者、學(xué)者和其他思想家保持著奇怪的沉默。這個(gè)問(wèn)題我個(gè)人覺(jué)得很難想清楚。說(shuō)“我害怕未來(lái),因?yàn)槲也荒芎蛣e人競(jìng)爭(zhēng)”聽(tīng)起來(lái)很虛弱,也很丟人。聽(tīng)起來(lái)很丟臉,“你應(yīng)該擔(dān)心,因?yàn)槟銜?huì)無(wú)足輕重”。聽(tīng)起來(lái)像一個(gè)失敗者,他說(shuō):“你的孩子可能會(huì)繼承一個(gè)沒(méi)有他們?nèi)萆碇氐氖澜?。他說(shuō):“當(dāng)然,我總是有特別的優(yōu)勢(shì)?或者“我是誰(shuí),我有什么資格阻礙進(jìn)步?"這種搪塞是可以理解的。
一個(gè)不言而喻的想法是,一般的人工智能根本沒(méi)有建立起來(lái)。雖然減緩其發(fā)展速度可能是合理的,但為了在全球范圍內(nèi)長(zhǎng)期阻止其發(fā)展,大多數(shù)計(jì)算機(jī)芯片制造業(yè)可能需要在全球范圍內(nèi)協(xié)調(diào)拆除。這條路的一個(gè)主要危險(xiǎn)是,政府可能會(huì)禁止個(gè)人開(kāi)發(fā)人工智能,但它仍然會(huì)用于其他目的,從而延遲我們被淘汰的時(shí)間,但它會(huì)提前削弱我們的能力。
假設(shè)我們無(wú)法阻止人工智能的發(fā)展,至少有四件事是有幫助的。
第一,我們應(yīng)該試著跟蹤人工智能在整個(gè)經(jīng)濟(jì)和政府中的應(yīng)用和影響。人工智能在哪些方面取代了人類(lèi)的經(jīng)濟(jì)活動(dòng),尤其是如果人工智能開(kāi)始大規(guī)模地用于游說(shuō)和宣傳等活動(dòng),我們需要知道。Anthropic 最近發(fā)布的經(jīng)濟(jì)指數(shù)是這個(gè)領(lǐng)域的第一次嘗試,但是仍然有許多工作要做。
第二,我們至少需要為了避免這項(xiàng)技術(shù)在我們?nèi)栽谔剿鞯倪^(guò)程中積累太多的知名度,對(duì)前沿人工智能實(shí)驗(yàn)室和部署進(jìn)行監(jiān)督和監(jiān)督。目前,我們依靠自愿的努力,無(wú)法協(xié)調(diào)和阻止自主人工智能指揮大量資源或匯聚力量。如果我們開(kāi)始看到困難的跡象,我們應(yīng)該能夠干預(yù)和緩解形勢(shì)的發(fā)展,尤其是當(dāng)個(gè)人和團(tuán)體從損害社會(huì)共同利益的事情中受益時(shí)。
三是我們能做到利用人工智能來(lái)提高人們的組織能力和自我宣傳能力。如果我們能在仍然有影響力的時(shí)候建立這些機(jī)構(gòu),人工智能支持的預(yù)測(cè)、監(jiān)督、規(guī)劃和談判將為設(shè)計(jì)和實(shí)施更值得信賴的機(jī)構(gòu)提供可能。例如,有條件的預(yù)測(cè)市場(chǎng)和人工智能支持的預(yù)測(cè)可以幫助人們更清楚地看到不同政策下的世界方向,比如“如果這項(xiàng)政策成為法律,三年后人類(lèi)的平均收入會(huì)發(fā)生什么變化?””“這個(gè)問(wèn)題。測(cè)試人工智能支持的民主機(jī)制,將使我們能夠?yàn)楦熳兓氖澜缢璧姆磻?yīng)更加敏銳的治理模式提供原型。
最后,要想在不被邊緣化的情況下建立強(qiáng)大的人工智能,我們必須完成一項(xiàng)艱巨的任務(wù),那就是學(xué)習(xí)如何引導(dǎo)文明?。在此之前,這種“摸石頭過(guò)河”的方法還可以,因?yàn)闊o(wú)論如何都需要人類(lèi)。如果沒(méi)有這樣的保障,除非我們知道權(quán)力、競(jìng)爭(zhēng)和成長(zhǎng)的所有運(yùn)作模式,否則我們就會(huì)漂泊。人工智能對(duì)齊(alignment)在這個(gè)技術(shù)領(lǐng)域,我們關(guān)注的是如何保證機(jī)器與我們的目標(biāo)一致,這需要把范圍擴(kuò)展到政府、機(jī)構(gòu)和社會(huì)本身。這個(gè)新領(lǐng)域有時(shí)被稱為“生態(tài)系統(tǒng)對(duì)齊”。它可以參考經(jīng)濟(jì)學(xué)、歷史學(xué)和博弈論,幫助我們理解我們可以合理期待什么樣的未來(lái),以及如何實(shí)現(xiàn)這些目標(biāo)。
越是看清自己的方向,協(xié)調(diào)得越好,就越有可能創(chuàng)造出一個(gè)人類(lèi)與之密切相關(guān)的未來(lái)。——作為受益者和管理者,而不是人工智能的競(jìng)爭(zhēng)對(duì)手,?,F(xiàn)在的情況是,我們正在爭(zhēng)分奪秒地創(chuàng)造自己的替代品。。
原文鏈接:
https://www.theguardian.com/books/2025/may/04/the-big-idea-can-we-stop-ai-making-humans-obsolete
這篇文章只是作者的觀點(diǎn),并不代表學(xué)術(shù)頭條的立場(chǎng)。
本文來(lái)自微信微信官方賬號(hào)“學(xué)術(shù)頭條”,整理:與可,36氪經(jīng)授權(quán)發(fā)布。
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請(qǐng)?jiān)谖闹凶⒚鱽?lái)源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請(qǐng)及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com