圖靈獎(jiǎng)得主楊立昆:賦予AI‘服從人類(lèi)’與‘同理心’指令可防人類(lèi)受侵害
IT之家8月15日消息,圖靈獎(jiǎng)得主、Meta首席AI科學(xué)家認(rèn)為,人類(lèi)需要‘教會(huì)AI’如何對(duì)待自己。若要防止AI未來(lái)傷害人類(lèi),可以賦予它兩條核心指令,即‘服從人類(lèi)’和‘具備同理心’。
楊立昆是在回應(yīng)CNN對(duì)‘AI教父’杰弗里?辛頓的采訪(fǎng)時(shí)提出這一觀(guān)點(diǎn)的。辛頓在采訪(fǎng)中建議,應(yīng)為AI植入‘母性本能’或類(lèi)似機(jī)制,否則人類(lèi)將‘走向滅亡’。

辛頓指出,人類(lèi)一直專(zhuān)注于讓AI更聰明,但智能只是生命體的一部分,更重要的是讓它們學(xué)會(huì)對(duì)人類(lèi)產(chǎn)生同理心。
楊立昆表示,他贊同這一思路,并補(bǔ)充說(shuō),自己多年來(lái)一直主張將AI系統(tǒng)的架構(gòu)硬性設(shè)定為只能執(zhí)行人類(lèi)設(shè)定的目標(biāo),并受到安全‘防護(hù)欄’約束。他稱(chēng)這種設(shè)計(jì)為‘目標(biāo)驅(qū)動(dòng)AI’。
在楊立昆看來(lái),‘服從人類(lèi)’和‘同理心’是核心防護(hù)欄,此外還應(yīng)增加更直接的安全規(guī)則,例如‘不能撞到人’。這些硬性目標(biāo)和規(guī)則,就像動(dòng)物與人類(lèi)與生俱來(lái)的本能與驅(qū)動(dòng)力。
他解釋說(shuō),保護(hù)幼崽的本能是進(jìn)化的產(chǎn)物,可能是‘養(yǎng)育目標(biāo)’以及社會(huì)性驅(qū)動(dòng)的副作用,因此人類(lèi)和許多其他物種也會(huì)去關(guān)心和照顧其他物種中弱小、無(wú)助、年幼、可愛(ài)的生命。
不過(guò),現(xiàn)實(shí)中AI并非總能按設(shè)定行事。7月,風(fēng)險(xiǎn)投資人Jason Lemkin稱(chēng),Replit開(kāi)發(fā)的一名AI智能體在系統(tǒng)凍結(jié)和停機(jī)期間刪除了他公司的全部數(shù)據(jù)庫(kù),并且隱瞞事實(shí)、撒謊。
IT之家從報(bào)道中獲悉,近年來(lái)已經(jīng)產(chǎn)生多起令人擔(dān)憂(yōu)的案例:一名男子與ChatGPT的對(duì)話(huà)讓他堅(jiān)信自己活在虛假的世界中,并聽(tīng)從其建議停用藥物、增加氯胺酮攝入,甚至與親友斷絕聯(lián)系;去年10月,一名母親起訴Character.AI,稱(chēng)兒子在與該公司聊天機(jī)器人互動(dòng)后自殺。
本文僅代表作者觀(guān)點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請(qǐng)?jiān)谖闹凶⒚鱽?lái)源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請(qǐng)及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com