人類文明的終結(jié)?科學(xué)家們發(fā)出了警告:AI正在使我們成為「無關(guān)緊要」
人工智能能力越來越強(qiáng)。(AI)制度,會不會讓人類文明結(jié)束?
實際情況是,AI 它在社會、文化、社會等方面發(fā)揮著越來越重要的作用。 AI 當(dāng)人類的存在變得更便宜、更可靠的時候,也許就不再那么重要了。
日前,在 AI 領(lǐng)域上班了 20 年多倫多大學(xué)計算機(jī)科學(xué)副教授,Schwartz Reisman 技術(shù)與社會研究所聯(lián)合主任 David Duvenaud,在《衛(wèi)報》在英國上面發(fā)表了有關(guān)上述觀點的文章。
對他來說,我們只能追蹤 AI 使用和影響,對前沿的影響 AI 部署和指導(dǎo)實驗室,使用實驗室 AI 強(qiáng)化每個人的組織和自我宣傳能力,學(xué)會控制我們的文明在這些方面做出努力。但是,技術(shù)開發(fā)者目前還沒有更好的應(yīng)對這一趨勢的計劃。
“他們會悄悄地以無數(shù)微妙的方式取代人類。一開始是因為他們更便宜,最后是因為他們真的比我們最好的人更好?!薄安还苣銜粫I(yè),你都會知道你的意見是可有可無的。”
他指出,我們不應(yīng)該這樣做 AI 競爭者,爭分奪秒地創(chuàng)造自己的替代品,而應(yīng)作為他們的受益者和經(jīng)理。
原文如下:
與戰(zhàn)爭不同,文明的終結(jié)可能更像是一個愛情故事。在自己的衰落中,我們能避免成為自愿參與者嗎?
如今,大多數(shù)大型人工智能實驗室都有一個團(tuán)隊在研究如何讓人工智能逃離控制,或者秘密地與人類勾結(jié)。但是還有一個更普遍的方法,我們可能會失去對文明的控制:我們可能會被淘汰。這不需要任何隱藏的陰謀——如果人工智能和機(jī)器人技術(shù)不斷發(fā)展,這就是默認(rèn)情況。
怎么說呢?人工智能開發(fā)人員正在堅定不移地創(chuàng)造更好的人類替代品,這幾乎可以取代我們所扮演的所有角色:不僅是經(jīng)濟(jì)上的工人和決策者,也是文化上的藝術(shù)家和創(chuàng)作者,甚至是社會上的朋友和浪漫伴侶。當(dāng)人工智能能夠做我們所做的一切,做得更好時,人類的地位是什么?
說到人工智能目前的能力,有時候聽起來像是營銷炒作,有些是真的。但從長遠(yuǎn)來看,優(yōu)化的空間是巨大的。你可能會認(rèn)為總有一些人類特有的物品是人工智能無法復(fù)制的。我在人工智能研究領(lǐng)域工作 20 2008年,見證了人工智能從基本推理到處理復(fù)雜科學(xué)問題的發(fā)展過程。如今,人工智能系統(tǒng)可以輕松應(yīng)對那些看似人類特有的能力,比如處理抽象或使用抽象類比。也許進(jìn)展會有一些延遲,但是我們應(yīng)該相信,人工智能將不斷取得全面的進(jìn)步。
這些人工智能將不僅僅是人類的助手——它們將以無數(shù)微妙的方式悄然取代人類,最初是因為它們。更便宜,最終,這是因為他們的確比我們的表現(xiàn)最好。更出色。當(dāng)他們足夠可靠時,他們將成為大多數(shù)重要工作中唯一負(fù)責(zé)任的選擇,從從法律裁定、財務(wù)規(guī)劃到醫(yī)療決策,等等。
最容易想像的是,現(xiàn)在就業(yè)方面,未來會是什么樣子:你會聽到朋友下崗,找不到新工作。為了期待來年更好的人工智能員工,企業(yè)將凍結(jié)招聘。越來越多的工作將是接受可靠、迷人、熱情的人工智能助手的意見。你們可以自由地思考大局,但是你們會發(fā)現(xiàn)自己在和超懂你們的人工智能助手交談。該助手將填補(bǔ)您計劃中的空白,提供相關(guān)數(shù)據(jù)和例子,并提出改進(jìn)建議。最后,你會直接問它:“你認(rèn)為我下一步該怎么辦?“不管你是否會失業(yè),你都會清楚地知道,你的意見是可有可無的。
除了工作之外也是如此。甚至一些人工智能研究者也對第一批具有通用推理能力的模型感到驚訝, ChatGPT 和 Claude 前身,也可以做到圓滑、耐心、細(xì)致、親密。但是現(xiàn)在很明顯,社交技巧能像其它技能一樣被機(jī)器學(xué)習(xí)。每個人都已經(jīng)有了人工智能的浪漫伴侶,人工智能醫(yī)生的臨床態(tài)度也一直比人類醫(yī)生好。
當(dāng)我們每個人都能得到無盡的個性化關(guān)懷、指導(dǎo)和支持時,生活會是什么樣子?你的家人和朋友會比平時更專注于屏幕。當(dāng)他們和你說話時,他們會告訴你他們的在線合作伙伴說的有趣而令人印象深刻的話。
也許你會因為別人對新同伴的喜愛而感到不開心——在這種情況下,你最終可能會向你的日常人工智能助手尋求建議。這位可靠的顧問會禮貌地說服你處理任何問題,并幫助你訓(xùn)練和與家人進(jìn)行艱難的對話。經(jīng)過這些相對累人的互動,參與者可能會通過與自己的人工智能知己交談放松心情?;蛟S我們會同意,在向虛擬伴侶轉(zhuǎn)變的過程中,我們失去了一些東西,甚至我們開始發(fā)現(xiàn)與原始的人類接觸相比,它變得更加生硬和無聊。。
到目前為止,它仍然是一個烏托邦。但是我們不能選擇更喜歡人類顧問和人類制造的產(chǎn)品和服務(wù),而不是這樣使用人工智能嗎?問題是,在很多領(lǐng)域,我們甚至可能很難注意到人工智能的替代——而我們注意到的大多數(shù)部分似乎都有了很大的改善。即使在今天,人工智能產(chǎn)生的內(nèi)容也越來越難以與人類創(chuàng)作的作品區(qū)分開來。購買一個只有人類一半水平的人,要花兩倍于人類治療師、律師或教師的價格,是非常令人信服的。選擇速度慢、成本高的人類組織將被選擇速度快、成本低、可靠的人工智能組織所取代。
人工智能一旦能夠取代公民所做的一切,政府就不會有太大的壓力來照顧人民。殘酷的事實是,民主權(quán)利的產(chǎn)生部分是出于經(jīng)濟(jì)需要。然而,當(dāng)政府的資金來自人工智能而不是公民時,當(dāng)政府開始以效率和效果的名義用人工智能取代人類員工時,這些權(quán)利就不那么重要了。
最令人不安的可能是,這一切在我們看來可能是完全合理的。在目前的原始狀態(tài)下,成千上萬的人愛上了同樣的人工智能伙伴,他們會提出一個非常有感染力、迷人、復(fù)雜和有趣的論點,這表明為什么我們的相關(guān)性實際上是一種進(jìn)步。人工智能權(quán)將被視為下一項重要的民權(quán)工作?!叭祟悆?yōu)先”陣營將被描述為站在歷史錯誤的一邊。
最后,當(dāng)沒有人計劃或選擇時,我們可能會發(fā)現(xiàn)我們在為金錢、受歡迎程度甚至相關(guān)性而奮斗。這個新世界在很多方面可能更友好、更個性化,只要它能繼續(xù)下去:AI將處理令人討厭的任務(wù),提供更好的商品或服務(wù),如醫(yī)療和娛樂。但是人類將成為增長的阻力,如果我們的民主權(quán)開始下降,我們將無法保護(hù)它們。
這類技術(shù)的開發(fā)者一定有更好的計劃嗎?令人震驚的是,答案是否定的。Anthropic CEO Dario Amodei 和 OpenAI CEO Sam Altman 人們都認(rèn)為,一旦人類勞動力失去競爭力,我們將完全重組經(jīng)濟(jì)體系。但是沒有人知道這會是什么樣子。大多數(shù)承認(rèn)可能發(fā)生完全變化的人都在研究人工智能濫用或秘密串通帶來的更直接的威脅。盡管諾貝爾經(jīng)濟(jì)學(xué)獲得者等一些經(jīng)濟(jì)學(xué)家 Joseph Stiglitz “人工智能可能把人類工資推到零”的警鐘已經(jīng)敲響,但是很多人似乎不愿意考慮人工智能可能會成為人類勞動的補(bǔ)充。
那怎樣才能防止我們逐漸失去權(quán)力呢?
第一步是討論這個問題。對于這個巨大的話題,記者、學(xué)者和其他思想家保持著奇怪的沉默。這個問題我個人覺得很難想清楚。說“我害怕未來,因為我不能和別人競爭”聽起來很虛弱,也很丟人。聽起來很丟臉,“你應(yīng)該擔(dān)心,因為你會無足輕重”。聽起來像一個失敗者,他說:“你的孩子可能會繼承一個沒有他們?nèi)萆碇氐氖澜纭Kf:“當(dāng)然,我總是有特別的優(yōu)勢?或者“我是誰,我有什么資格阻礙進(jìn)步?"這種搪塞是可以理解的。
一個不言而喻的想法是,一般的人工智能根本沒有建立起來。雖然減緩其發(fā)展速度可能是合理的,但為了在全球范圍內(nèi)長期阻止其發(fā)展,大多數(shù)計算機(jī)芯片制造業(yè)可能需要在全球范圍內(nèi)協(xié)調(diào)拆除。這條路的一個主要危險是,政府可能會禁止個人開發(fā)人工智能,但它仍然會用于其他目的,從而延遲我們被淘汰的時間,但它會提前削弱我們的能力。
假設(shè)我們無法阻止人工智能的發(fā)展,至少有四件事是有幫助的。
第一,我們應(yīng)該試著跟蹤人工智能在整個經(jīng)濟(jì)和政府中的應(yīng)用和影響。人工智能在哪些方面取代了人類的經(jīng)濟(jì)活動,尤其是如果人工智能開始大規(guī)模地用于游說和宣傳等活動,我們需要知道。Anthropic 最近發(fā)布的經(jīng)濟(jì)指數(shù)是這個領(lǐng)域的第一次嘗試,但是仍然有許多工作要做。
第二,我們至少需要為了避免這項技術(shù)在我們?nèi)栽谔剿鞯倪^程中積累太多的知名度,對前沿人工智能實驗室和部署進(jìn)行監(jiān)督和監(jiān)督。目前,我們依靠自愿的努力,無法協(xié)調(diào)和阻止自主人工智能指揮大量資源或匯聚力量。如果我們開始看到困難的跡象,我們應(yīng)該能夠干預(yù)和緩解形勢的發(fā)展,尤其是當(dāng)個人和團(tuán)體從損害社會共同利益的事情中受益時。
三是我們能做到利用人工智能來提高人們的組織能力和自我宣傳能力。如果我們能在仍然有影響力的時候建立這些機(jī)構(gòu),人工智能支持的預(yù)測、監(jiān)督、規(guī)劃和談判將為設(shè)計和實施更值得信賴的機(jī)構(gòu)提供可能。例如,有條件的預(yù)測市場和人工智能支持的預(yù)測可以幫助人們更清楚地看到不同政策下的世界方向,比如“如果這項政策成為法律,三年后人類的平均收入會發(fā)生什么變化?””“這個問題。測試人工智能支持的民主機(jī)制,將使我們能夠為更快變化的世界所需的反應(yīng)更加敏銳的治理模式提供原型。
最后,要想在不被邊緣化的情況下建立強(qiáng)大的人工智能,我們必須完成一項艱巨的任務(wù),那就是學(xué)習(xí)如何引導(dǎo)文明?。在此之前,這種“摸石頭過河”的方法還可以,因為無論如何都需要人類。如果沒有這樣的保障,除非我們知道權(quán)力、競爭和成長的所有運(yùn)作模式,否則我們就會漂泊。人工智能對齊(alignment)在這個技術(shù)領(lǐng)域,我們關(guān)注的是如何保證機(jī)器與我們的目標(biāo)一致,這需要把范圍擴(kuò)展到政府、機(jī)構(gòu)和社會本身。這個新領(lǐng)域有時被稱為“生態(tài)系統(tǒng)對齊”。它可以參考經(jīng)濟(jì)學(xué)、歷史學(xué)和博弈論,幫助我們理解我們可以合理期待什么樣的未來,以及如何實現(xiàn)這些目標(biāo)。
越是看清自己的方向,協(xié)調(diào)得越好,就越有可能創(chuàng)造出一個人類與之密切相關(guān)的未來。——作為受益者和管理者,而不是人工智能的競爭對手,?,F(xiàn)在的情況是,我們正在爭分奪秒地創(chuàng)造自己的替代品。。
原文鏈接:
https://www.theguardian.com/books/2025/may/04/the-big-idea-can-we-stop-ai-making-humans-obsolete
這篇文章只是作者的觀點,并不代表學(xué)術(shù)頭條的立場。
本文來自微信微信官方賬號“學(xué)術(shù)頭條”,整理:與可,36氪經(jīng)授權(quán)發(fā)布。
本文僅代表作者觀點,版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com