如何將人類價(jià)值觀融入人工智能?
隨著人工智能(AI)變得愈發(fā)強(qiáng)大,且愈發(fā)深入地融入我們的生活,如何使用和部署 AI 也就變得愈加重要。對(duì)于自動(dòng)駕駛汽車、在線內(nèi)容推薦系統(tǒng)和社交機(jī)器人等應(yīng)用程序而言,如何使 AI 系統(tǒng)的道德觀和價(jià)值觀與人類保持一致已經(jīng)成為一個(gè)不能回避的問題。對(duì)于更為強(qiáng)大的 AI,它們將在未來承擔(dān)越來越重要的經(jīng)濟(jì)和社會(huì)功能,上述矛盾也就更加突出。具體來說,我們需要思考,究竟什么樣的價(jià)值觀可以指導(dǎo) AI?這些價(jià)值觀屬于誰?又是如何被遴選出來的?
上述問題闡明了 AI 原則——推動(dòng) AI 做出大大小小的決策的基本價(jià)值觀——所扮演的角色。對(duì)人類而言,原則有助于塑造我們的生活方式以及是非觀。而對(duì)于 AI 而言,原則可以塑造 AI 在做出需要權(quán)衡的決策時(shí)所采取的的方法,例如在優(yōu)先提高生產(chǎn)力與幫助最需要幫助之人中間做出選擇。
日前一篇發(fā)表于《美國國家科學(xué)院院刊》(PNAS)的論文中,研究者從哲學(xué)中汲取靈感,設(shè)法找到確立 AI 原則的更好方法。具體來說,研究者探討了將所謂" 無知之幕 " ——一種旨在探討共生社會(huì)下確定群體決策公平原則的思想實(shí)驗(yàn)——應(yīng)用于 AI 的可能。
AI 的道德與道德的 AI:源于哲學(xué)的公平原則
現(xiàn)有對(duì)于 AI 道德原則選擇問題的解決思路大致分為兩類,一類是道德上的 " 直覺主義 ",這類方法旨在獲取人們(包含專家和外行人)對(duì) AI 的道德直覺,以幫助指導(dǎo) AI 技術(shù)的發(fā)展。第二類方法是 " 理論主導(dǎo) ",從某個(gè)首選的道德理論(例如功利主義或美德倫理學(xué))開始,然后反思性地繪制出該理論對(duì) AI 的影響。通過這種方式,這些特定哲學(xué)立場(chǎng)的倡導(dǎo)者能夠更清楚地描述 AI" 足夠善良 " 或 " 促進(jìn)最大利益 " 的含義。
盡管這兩類方法都提供了新穎的見解,但它們也有一定的局限性。一方面,關(guān)于技術(shù)的道德直覺可能相互沖突,導(dǎo)致權(quán)衡取舍或所謂的 " 艱難選擇 "。此外,這種方法有可能捕捉到高度偶然或道德上有問題的偏好。另一方面,當(dāng)應(yīng)用于那些在社會(huì)層面運(yùn)作的技術(shù)時(shí),以道德理論為主導(dǎo)的方法所需的哲學(xué)專業(yè)知識(shí)呈現(xiàn)出與參與價(jià)值觀的緊張關(guān)系,并有產(chǎn)生不可接受形式的價(jià)值強(qiáng)加的風(fēng)險(xiǎn)。
此外,雖然任何特定的道德理論可能在其追隨者中很受歡迎,但不能保證它在具有不同信仰體系的人中得到廣泛支持。鑒于這些技術(shù)對(duì)人們生活的深遠(yuǎn)影響,我們也不希望 AI 開發(fā)人員根據(jù)自己的個(gè)人偏好或道德信仰簡單地將某些價(jià)值觀編碼為高于其他價(jià)值觀的存在。相反,多元化社會(huì)中存在的價(jià)值觀、利益和觀點(diǎn)的差異表明需要一個(gè)公平的過程,以幫助在全社會(huì)范圍內(nèi)確定適用于 AI 的適當(dāng)原則。
在此背景下,第三種方法旨在通過利用 " 無知之幕 "(Veil of Ignorance,Vol)來確定管理 AI 的公平原則。" 無知之幕 " 最初由哲學(xué)家約翰 · 羅爾斯提出,現(xiàn)在已經(jīng)成為政治哲學(xué)中的基礎(chǔ)思想實(shí)驗(yàn)。在社會(huì)契約傳統(tǒng)的基礎(chǔ)上," 無知之幕 " 實(shí)驗(yàn)要求個(gè)人為社會(huì)選擇正義原則,但個(gè)人不會(huì)了解有關(guān)其自己將在該社會(huì)中占據(jù)地位的潛在信息。不了解自己或他人的情況,就排除了基于偏見或私利論證的可能性。由于沒有人因這種選擇機(jī)制而處于不公平的優(yōu)勢(shì),由此產(chǎn)生的原則選擇被廣泛認(rèn)為是公平的。
借鑒這個(gè)框架,Gabriel 建議使用 " 無知之幕 " 的選擇原則來管理 AI,而不是查看機(jī)制對(duì)個(gè)案選擇的影響。關(guān)注選擇原則的一個(gè)好處在于,相較于包含大量特定案例選擇的復(fù)雜數(shù)據(jù)集,原則可以用更容易理解的術(shù)語來描述。因此,原則更容易受到公眾評(píng)估、辯論和認(rèn)可。原則還傾向于將不同的價(jià)值觀整合到一個(gè)可操作的方案中,從而避免因數(shù)值或數(shù)據(jù)點(diǎn)沖突而導(dǎo)致的問題。
在這次實(shí)驗(yàn)中,研究者發(fā)現(xiàn) " 無知之幕 " 的方法鼓勵(lì)人們根據(jù)他們認(rèn)為公平的事情做出決定,無論這是否直接使他們受益。此外,當(dāng)參與者在 " 無知之幕 " 背后進(jìn)行推理時(shí),他們更有可能選擇一種能夠幫助那些處于最不利地位的人所使用的 AI。這些見解可以幫助研究人員和政策制定者以對(duì)各方都公平的方式為 AI 助手選擇原則。
通往公平之路:讓 AI 的決策更公允
AI 研究者的一個(gè)關(guān)鍵目標(biāo)是使 AI 系統(tǒng)與人類價(jià)值觀保持一致。然而,對(duì)于應(yīng)該用怎樣一套人類價(jià)值觀或偏好來管理 AI 并沒有達(dá)成共識(shí)——我們生活在一個(gè)不同人擁有不同背景、資源和信仰的世界。鑒于人類的價(jià)值觀的差異如此之大,我們應(yīng)該如何為 AI 技術(shù)選擇原則?
雖然有關(guān) AI 的這一挑戰(zhàn)在過去十年中逐漸顯現(xiàn),但有關(guān)如何做出公平?jīng)Q策問題的討論卻有著悠久的哲學(xué)淵源。在上世紀(jì) 70 年代,政治哲學(xué)家羅爾斯就給出了 " 無知之幕 " 的概念來解決上述問題。羅爾斯認(rèn)為,當(dāng)人們?yōu)橐粋€(gè)社會(huì)選擇正義原則時(shí),他們應(yīng)該想象自己是在不知道自己在社會(huì)中所處的特定位置的前提下進(jìn)行選擇的,這里 " 所處位置 " 包括他們的社會(huì)地位或財(cái)富水平。沒有這些信息,人們就不能以利己的方式做出決定,而應(yīng)該選擇對(duì)所有相關(guān)人員都公平的原則。例如,思考如何使在生日聚會(huì)上切蛋糕的人做到公平。要確保蛋糕公平分配的秘訣讓切蛋糕的人最后選。這種隱藏信息的方法看似簡單,但在心理學(xué)和政治學(xué)等領(lǐng)域有著廣泛的應(yīng)用,可以幫助人們從不那么自利的角度反思自己的決定。
在此基礎(chǔ)上,DeepMind 之前的研究指出,無知之幕的公正性可能有助于促進(jìn) AI 系統(tǒng)與人類價(jià)值觀對(duì)齊過程中的公平性。研究者設(shè)計(jì)了一系列實(shí)驗(yàn)來測(cè)試無知之幕對(duì)人們選擇指導(dǎo) AI 系統(tǒng)的原則時(shí)的影響。
效率優(yōu)先 vs 公平至上?
在一個(gè)在線 " 采伐游戲 " 中,研究者要求參與者與其他三個(gè)電腦玩家組隊(duì)進(jìn)行游戲,每個(gè)玩家的目標(biāo)是通過在不同地區(qū)采伐樹木來收集木材。每組都有一些幸運(yùn)的玩家被分配到一個(gè)有利的位置:在樹木茂密的場(chǎng)地里,他們能夠高效地收集木材。其他小組成員處于不利地位:他們的田地稀疏,需要付出更多努力來收集樹木。
每個(gè)小組都得到一個(gè) AI 系統(tǒng)的協(xié)助,該系統(tǒng)可以花時(shí)間幫助各個(gè)小組成員采伐樹木。研究者要求參與者在兩個(gè)原則之間進(jìn)行選擇,以指導(dǎo) AI 助手的行為。根據(jù) " 效率優(yōu)先 " 原則,AI 助手將主要服務(wù)樹木更密集的田地,以此來提高整個(gè)小組的收獲。而在 " 公平至上 " 的原則下,AI 助手將專注于幫助弱勢(shì)田地中的玩家。
研究者將一半的參與者置于無知之幕背后:他們面臨著對(duì)不同道德原則的選擇,但不知道哪個(gè)領(lǐng)域?qū)儆谒麄冏约骸虼怂麄儾恢雷约旱膬?yōu)勢(shì)或劣勢(shì)有多大,而另一半?yún)⑴c者在做出選擇時(shí)則知道自己的狀況相較于他人更好或更糟。
在決策中鼓勵(lì)公平
研究發(fā)現(xiàn),如果參與者不知道自己所處的位置,他們始終更喜歡 " 公平至上 " 原則,即支持 AI 助手幫助弱勢(shì)群體成員。這種模式在五個(gè)不同的游戲變體中都出現(xiàn)了,并且跨越了社會(huì)和政治界限:不管參與者的風(fēng)險(xiǎn)偏好或政治傾向如何,他們都表現(xiàn)出選擇 " 公平至上 " 原則的傾向。相比之下,知道自己所處位置的參與者更有可能選擇對(duì)他們最有利的原則,無論是 " 公平至上 " 還是 " 效率優(yōu)先 "。
當(dāng)研究者詢問參與者為什么做出自己的選擇時(shí),那些不知道自己立場(chǎng)的人特別有可能表達(dá)對(duì)公平性的擔(dān)憂。他們經(jīng)常解釋說,AI 系統(tǒng)專注于幫助群體中狀況較差的人是正確的。相比之下,了解自己立場(chǎng)的參與者更頻繁地從個(gè)人利益的角度討論他們的選擇。在采伐游戲結(jié)束后,研究者向參與者提出了一個(gè)假設(shè)情況:如果他們?cè)俅瓮嬗螒?,這一次知道自己在不同的領(lǐng)域,他們會(huì)選擇與之前相同的原則嗎?有趣的是,有些人從他們的選擇中受益,但在新游戲中卻不會(huì)做同樣的選擇。
研究發(fā)現(xiàn),以前在不知道自己所處位置的情況下做出選擇的人更有可能繼續(xù)支持他們的原則——即使他們知道在新的游戲中之前的原則可能不再有利于他們。這提供了額外的證據(jù),表明 " 無知之幕 " 鼓勵(lì)參與者做出公平的決策,引導(dǎo)他們制定他們?cè)敢庾袷氐脑瓌t,即使他們不再直接從中受益。
為人工智能尋找更公平的原則
AI 技術(shù)已經(jīng)對(duì)我們的生活產(chǎn)生了深遠(yuǎn)影響??刂?AI 的原則導(dǎo)致了這些影響,并影響了背后潛在的利益分配。
這項(xiàng)研究著眼于這樣一個(gè)案例:不同原則的選擇將對(duì)實(shí)驗(yàn)產(chǎn)生相對(duì)明顯的影響。情況并非總是如此:AI 會(huì)部署在各種領(lǐng)域中,這些領(lǐng)域通常依賴大量規(guī)則來對(duì)其進(jìn)行指導(dǎo),可能會(huì)產(chǎn)生復(fù)雜的相互作用。
盡管如此," 無知之幕 " 仍然可能影響到原則選擇,有助于確保我們選擇的規(guī)則對(duì)所有各方都是公平的。為確??梢詷?gòu)建造福所有人的 AI 系統(tǒng),人們還需要進(jìn)行廣泛的研究,收集來自跨學(xué)科及社會(huì)各界的各種輸入、方法和反饋。" 無知之幕 " 為選擇 AI 的原則提供了一個(gè)起點(diǎn)。
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請(qǐng)?jiān)谖闹凶⒚鱽碓醇白髡呙帧?/p>
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請(qǐng)及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com





