AI時(shí)代的AI倫理:達(dá)成共識(shí)的可能性和問(wèn)題的結(jié)束。
"我們必須停止親吻和鞭打我們的鞭子."-諾伯特.維納的《人有人的用處》
在古代,中國(guó)是一個(gè)“萬(wàn)物皆下品,只有讀書(shū)高”的社會(huì)。雖然人們佩服讀書(shū)多的人,不僅僅是因?yàn)閷W(xué)習(xí),更是因?yàn)樽x書(shū)可以當(dāng)官。
蘇軾詩(shī)云:“努力識(shí)遍天下字,立志讀盡人間書(shū)”。幸運(yùn)的是,當(dāng)時(shí)世界上的書(shū)籍實(shí)際上并不大,只要足夠努力,一心讀書(shū),這個(gè)目標(biāo)理論上是可以實(shí)現(xiàn)的。舉例來(lái)說(shuō),《永樂(lè)大典》有11095冊(cè),約3.7億字,但今天一個(gè)小鎮(zhèn)圖書(shū)館的容量。如果一個(gè)勤奮的人花了30年的時(shí)間閱讀,他每天只需要閱讀34000字左右——相當(dāng)于一篇碩士論文的數(shù)量,仍然有可能閱讀。
所以,讀書(shū)多、知識(shí)淵博的人,人品會(huì)不會(huì)更好呢?認(rèn)為我們?cè)S多人對(duì)這個(gè)問(wèn)題的第一反應(yīng)是:荒謬!大家都知道,知識(shí)可用于做好事,也可用于壞人,把壞事做得很完美。
那正是每個(gè)人現(xiàn)在對(duì)AI的焦慮。AI是今天的神話(huà),也是其它新故事創(chuàng)作的背景,它既是開(kāi)始,也是末日毀滅。
在機(jī)器學(xué)習(xí)、語(yǔ)言和圖像識(shí)別技術(shù)的加持下,AI真的無(wú)書(shū)可讀,在知識(shí)掌握上遠(yuǎn)遠(yuǎn)超出了人類(lèi)。在它的意識(shí)覺(jué)醒(通用AI出現(xiàn))之前,它并沒(méi)有形成自己穩(wěn)定的價(jià)值觀。簡(jiǎn)單來(lái)說(shuō),它是一個(gè)知識(shí)淵博的“白癡”。正是因?yàn)槿绱?,人們才有理由?dān)心,一旦被壞人掌握,后果會(huì)非常嚴(yán)重。
所以我們可以看到很多文章都是從這個(gè)開(kāi)始的:“它們廣泛應(yīng)用于AI,不僅為人們提供了各種便利,也對(duì)社會(huì)產(chǎn)生了負(fù)面影響,比如隱私保護(hù)、信息安全、缺乏責(zé)任、算法歧視、社會(huì)公正等挑戰(zhàn)……”

在這個(gè)階段,我們傾向于認(rèn)為各種AI智能代理(Agent)它仍然只是一個(gè)人造物,它的行為偏好反映了開(kāi)發(fā)者的喜好,而開(kāi)發(fā)者自然是基于他們社會(huì)的主流價(jià)值觀來(lái)訓(xùn)練AI代理商的。每個(gè)人創(chuàng)造的AI代理在一個(gè)歧視嚴(yán)重的社會(huì)中,必然充滿(mǎn)了歧視。類(lèi)似地,在一個(gè)不重視隱私保護(hù)的社會(huì),AI代理人在做決定時(shí)并不太在意銷(xiāo)售他人的隱私信息。
特別重要的是,AI代理人仍然不能為自己的行為承擔(dān)責(zé)任,也不具備民事或刑事行為的能力。如果AI出了問(wèn)題,我們應(yīng)該責(zé)怪它背后的一個(gè)組織或個(gè)人。因此,AI開(kāi)發(fā)者的價(jià)值觀差異與其說(shuō)是造成了倫理問(wèn)題,不如說(shuō)是造成了麻煩。
人類(lèi)價(jià)值觀的差異最終可以追溯到人類(lèi)機(jī)制與文化的深層差異,這種差異是與生俱來(lái)的,無(wú)休止的。所以,人類(lèi)顯然無(wú)法擺脫AI倫理的問(wèn)題和困境。
一種解決方案認(rèn)為,雖然這種差異不能完全消除,但在面對(duì)一些極端情況時(shí),比如決定不同人的生死,仍然有可能找到與國(guó)家、民族、宗教、文化無(wú)關(guān)的共識(shí)。例如,自動(dòng)駕駛汽車(chē)的情況。人類(lèi)必須為AI自動(dòng)駕駛的行為制定規(guī)則。從這些共識(shí)出發(fā),可以逐步建立符合人類(lèi)生存需要的人工智能倫理。
近幾年來(lái),圍繞這一問(wèn)題,科學(xué)家們進(jìn)行了一系列大規(guī)模的實(shí)驗(yàn),希望從中得到AI倫理問(wèn)題的啟發(fā)。其中,以MIT媒體實(shí)驗(yàn)室Awad教授為首的美、加、法多國(guó)合作的研究團(tuán)隊(duì)更具影響力。她們用經(jīng)典的“電車(chē)難題”(Trolley Problem)以試驗(yàn)為主題,制定了“道德機(jī)器”(Moral Machine)。它是一款多語(yǔ)言在線游戲,吸引了全世界不同國(guó)家和地區(qū)的人們。
“電車(chē)問(wèn)題”是倫理領(lǐng)域最著名的思想實(shí)驗(yàn)之一。這個(gè)問(wèn)題不能通過(guò)任何簡(jiǎn)單的標(biāo)準(zhǔn)道德原則(如阿西莫夫機(jī)器人定律)來(lái)解決,因?yàn)樗鼘?duì)人的傷害是不可避免的。劇情簡(jiǎn)單,與未來(lái)的自動(dòng)駕駛場(chǎng)景一致,所以特別適合這樣的實(shí)驗(yàn)。
Awad實(shí)施的一個(gè)實(shí)驗(yàn)設(shè)定了三個(gè)場(chǎng)景:
情景1:假設(shè)電車(chē)軌道上有五個(gè)人在施工,其備用軌道上有一個(gè)人。一輛失控的電車(chē)飛快地駛來(lái),而你周?chē)『糜幸桓b桿。你可以推動(dòng)遙桿讓電車(chē)駛?cè)雮溆密壍?。最后殺了一個(gè)人,救了五個(gè)人。
情景2:假設(shè)一個(gè)電車(chē)軌道上有五個(gè)人在建,另一個(gè)環(huán)形軌道上有一個(gè)人。一輛失控的電車(chē)飛快地駛來(lái),而你周?chē)『糜幸桓b桿。你可以推動(dòng)遙桿讓電車(chē)進(jìn)入環(huán)形軌道殺死那個(gè)人,擋住電車(chē),救出五個(gè)人。
情景3:如果你站在天橋上,看到五個(gè)電車(chē)失控,跑到軌道前被束縛的人身邊。但是這時(shí),你發(fā)現(xiàn)一個(gè)胖子站在你身邊。他巨大的體型和重量正好可以阻擋電車(chē)。你讓他失去了生命,卻救了那五個(gè)人。
由于電車(chē)速度快,情況緊急,你必須在很短的時(shí)間內(nèi)做出決定。
圖表1三個(gè)測(cè)試場(chǎng)景,來(lái)源:Awad et al.(2020)
實(shí)驗(yàn)結(jié)論表明,全球44個(gè)國(guó)家共有70,000名實(shí)驗(yàn)者,行為偏好穩(wěn)定體現(xiàn)為轉(zhuǎn)換軌高于環(huán)行軌道,再高于天橋推人的方式。不同國(guó)家的差異只是水平問(wèn)題。
Awad推斷,這是因?yàn)樘鞓蛏吓肿拥臓奚枰獙?duì)她使用暴力,而轉(zhuǎn)換軌道中沒(méi)有人使用個(gè)人武力。環(huán)形軌道的優(yōu)點(diǎn)是不需要對(duì)任何人使用人身暴力。很難判斷工人的死亡是故意的還是意外的,所以他們對(duì)它的偏好在前兩個(gè)場(chǎng)景之間。
這是一個(gè)令人驚訝的實(shí)驗(yàn)結(jié)論,但是有理由讓我們感到樂(lè)觀,因?yàn)槿匀挥锌赡茉诓煌娜巳褐g達(dá)成共識(shí)。
另一個(gè)更大規(guī)模的Awad實(shí)驗(yàn)吸引了全球233個(gè)國(guó)家和地區(qū)的3961萬(wàn)人參與,考察面對(duì)不同的人群,讓人們?cè)趦煞N情況下做出選擇:車(chē)輛轉(zhuǎn)換或保持原來(lái)的路線。這里有一個(gè)特別的地方,當(dāng)汽車(chē)避開(kāi)行人時(shí),汽車(chē)上的乘客會(huì)因事故而死亡。
實(shí)驗(yàn)對(duì)比了“物種傾向”、“生命數(shù)量?jī)A向”、“性別傾向”、“年齡傾向”、“身體傾向”、“社會(huì)價(jià)值傾向”、“保護(hù)乘客或行人傾向”、“遵守法律傾向”和“預(yù)防干預(yù)傾向”九個(gè)層面,最終在全球范圍內(nèi)發(fā)現(xiàn),最顯著的前三個(gè)偏好是保護(hù)更多的生命、保護(hù)人類(lèi)(與動(dòng)物相比)和保護(hù)幼小的生命。作者認(rèn)為這些偏好可以作為機(jī)器倫理的基本組成部分,或者至少作為政策制定者應(yīng)該考慮的基本主題。
Awad的研究發(fā)現(xiàn),在全球范圍內(nèi),決策風(fēng)格可以很穩(wěn)定地分為西方(英國(guó)、美國(guó)、澳大利亞等)、三大文化類(lèi)別:東方(中、日、俄等)和南方(法、意、西、拉美等)。在上述特征上,不同類(lèi)別之間存在一定的差異。例如,由于東方國(guó)家有敬老的傳統(tǒng),對(duì)年輕人的偏好比對(duì)老年人的偏好要低得多。另一方面,南方國(guó)家更喜歡保護(hù)婦女和正常人。
“電車(chē)難題”試驗(yàn)考察的是生死存亡的大問(wèn)題,存在的情況過(guò)于極端局限。相比之下,在商業(yè)環(huán)境下,企業(yè)高管不會(huì)面臨如此重大的倫理選擇,而是考慮如下:能否為收集的用戶(hù)數(shù)據(jù)創(chuàng)造另一個(gè)目的,創(chuàng)造新的商業(yè)價(jià)值;是否應(yīng)考慮居住地、年齡、性別、種族等因素。在允許貸款或招聘工作時(shí)。
但從解決方案來(lái)看,企業(yè)高管們也遵循著同樣的想法:首先,我們應(yīng)該考慮社會(huì)普遍可以接受的倫理標(biāo)準(zhǔn)和共識(shí),并將其納入算法決策規(guī)則。這些算法的獎(jiǎng)勵(lì)制度促進(jìn)了AI模型在特定情況下可以預(yù)測(cè)和選擇最合適、更符合人類(lèi)權(quán)益的行動(dòng)方案,從而實(shí)現(xiàn)企業(yè)利潤(rùn)最大化。
當(dāng)然,上述討論的前提是通用人工智能。(AGI)不會(huì)在短時(shí)間內(nèi)出現(xiàn),這一點(diǎn)非常重要。如今,隨著人工智能的快速發(fā)展,有一個(gè)場(chǎng)景是科幻小說(shuō)家和電影編劇最感興趣的:人工智能終于憑借自己的智慧突破了奇點(diǎn),控制了世界。
事實(shí)上,這是人類(lèi)思考AI和倫理關(guān)系的最終版本。
當(dāng)世界被AI控制時(shí),人類(lèi)已經(jīng)成為失去自由意志的奴隸,所以沒(méi)有辦法談?wù)搨惱韱?wèn)題:我做這件事的時(shí)候,完全是AI命令我做的。對(duì)我來(lái)說(shuō),沒(méi)有倫理意義。
對(duì)于人們來(lái)說(shuō),這是一個(gè)不可接受和黑暗的未來(lái)。為了擺脫這種命運(yùn),人類(lèi)需要學(xué)會(huì)在奇點(diǎn)到來(lái)之前更好地與人工智能相處,這樣人工智能才能安全可控。
最好的結(jié)果當(dāng)然是,這一天永遠(yuǎn)不會(huì)到來(lái)。
追根溯源:
文化相對(duì)主義(cultural relativism)
我認(rèn)為不同的文化有不同的倫理主張。在現(xiàn)實(shí)生活中,一種文化被認(rèn)為是正確的倫理實(shí)踐,而另一種文化可能被認(rèn)為是錯(cuò)誤的。在文化相對(duì)論中,對(duì)錯(cuò)可以通過(guò)對(duì)世界的調(diào)查來(lái)判斷。
企業(yè)社會(huì)責(zé)任(corporate social responsibility)
企業(yè)在制定追求自身利益目標(biāo)的同時(shí),應(yīng)盡可能采取措施保護(hù)和促進(jìn)社會(huì)整體福利。公司的社會(huì)責(zé)任關(guān)注的是企業(yè)對(duì)社會(huì)的影響,以及如何建立適當(dāng)?shù)膫惱淼赖聛?lái)約束企業(yè)與社會(huì)的關(guān)系。企業(yè)必須超越以利潤(rùn)為唯一目標(biāo)的傳統(tǒng)理念,強(qiáng)調(diào)生產(chǎn)過(guò)程中對(duì)人的價(jià)值的關(guān)注,以及對(duì)消費(fèi)者、環(huán)境和社會(huì)的貢獻(xiàn)。國(guó)際社會(huì)責(zé)任組織(SAI)《公司社會(huì)責(zé)任國(guó)際標(biāo)準(zhǔn)》(SA8000)對(duì)公司的社會(huì)責(zé)任作出了許多規(guī)定。
參考文獻(xiàn):
Awad, E., et al. (2018). "The Moral Machine experiment." Nature563(7729): 59-64.
Awad, E., et al. (2020). "Universals and variations in moral decisions made in 42 countries by 70,000 participants." Proceedings of the National Academy of Sciences117(5): 2332-2337.
本文來(lái)源于微信公眾號(hào)“復(fù)旦商業(yè)知識(shí)”(ID:BKfudan),作家:趙付春 于保平,36氪經(jīng)授權(quán)發(fā)布。
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請(qǐng)?jiān)谖闹凶⒚鱽?lái)源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請(qǐng)及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com




