虛擬人犯了錯(cuò),誰(shuí)來(lái)替它坐牢?
AIGC大模型放飛了市場(chǎng)對(duì)虛擬人的想象。
給ChatGPT穿一個(gè)“皮套”,應(yīng)該就是個(gè)很好用的虛擬人了。再想多一點(diǎn),我可以拿自己所有的歷史數(shù)據(jù),訓(xùn)練出來(lái)一個(gè)我的虛擬分身,讓這個(gè)“我”做我的秘書(shū)。分布式、定制化的AIGC,世界上每一個(gè)人都可以擁有一個(gè)虛擬分身。一些不重要的工作和社會(huì)交際,就讓分身們?cè)谔摂M空間里面自動(dòng)完成。
再往下設(shè)想,事情就會(huì)變得狂野。一個(gè)現(xiàn)成的擔(dān)憂(yōu)來(lái)自電影《流浪地球》:人類(lèi)把太多決策交給了人工智能,結(jié)果人工智能掐指一算,發(fā)現(xiàn)干掉人類(lèi)才是世界的*解。
我們還沒(méi)有為一個(gè)充斥著虛擬人的世界做好倫理上的準(zhǔn)備。
這確實(shí)關(guān)系到虛擬人治理與合規(guī)的未來(lái)趨勢(shì)。最近,官方開(kāi)始把關(guān)注的目光聚焦于AI的應(yīng)用層面。一個(gè)重要的事件是本月底,歐盟議會(huì)計(jì)劃就《人工智能法》舉行投票。而前日信通院發(fā)起的《可信虛擬人生成內(nèi)容管理系統(tǒng)技術(shù)要求》標(biāo)準(zhǔn)制定項(xiàng)目,并且正在籌備《可信虛擬人白皮書(shū)》,更是把目標(biāo)直指虛擬人AIGC。
虛擬人如果獲得了更強(qiáng)大的智能內(nèi)核,它應(yīng)該遵循怎樣的社會(huì)責(zé)任邏輯?
治理虛擬人,本質(zhì)上還是治理真人
一位游戲從業(yè)者告訴虎嗅,“虛擬人有很多定義和應(yīng)用場(chǎng)景,但歸根到底虛擬人可以分成兩種,有靈魂的和沒(méi)有靈魂的”。
目前而言,虛擬人的“靈魂”是很貴的。它一方面需要技術(shù)的解決方案,另一方面需要內(nèi)容方面的持續(xù)投入。在C端消費(fèi)市場(chǎng),“靈魂”或曰“人格”是虛擬人IP的核心競(jìng)爭(zhēng)力:讓虛擬人擁有一個(gè)好看的皮囊并不難,有趣的靈魂才能吸引粉絲持續(xù)地關(guān)注。這往往需要背后一整個(gè)內(nèi)容的策劃與生產(chǎn)團(tuán)隊(duì),以及一些合格的“中之人”。部分虛擬偶像還需要用戶(hù)共創(chuàng)和用戶(hù)生成內(nèi)容來(lái)起到充實(shí)人格的作用。所以它們的內(nèi)核依然是PGC或UGC。此外,虛擬人要在表情、聲音、動(dòng)作、交互上顯得有靈氣,需要相當(dāng)大的技術(shù)投入。在這些成本的約束下,即便是大廠旗下的虛擬人也不可能在以上所有方面都擅長(zhǎng)。
虛擬人成為怎樣一個(gè)“人”,這是個(gè)運(yùn)營(yíng)問(wèn)題,而非技術(shù)問(wèn)題——在目前以及可預(yù)見(jiàn)的將來(lái)都是如此。虛擬人的人格是由運(yùn)營(yíng)商、用戶(hù)、中之人賦予的,技術(shù)只是實(shí)現(xiàn)的手段。于是針對(duì)虛擬人的治理,主要還是管理虛擬人背后的真人。
目前國(guó)內(nèi)的互聯(lián)網(wǎng)生態(tài),已經(jīng)開(kāi)始處理這一類(lèi)問(wèn)題原初版本。比如在2020年,著名主持人何炅將一家技術(shù)公司告上法庭,原因是該公司的APP產(chǎn)品為用戶(hù)提供了定制聊天機(jī)器人的服務(wù),于是有用戶(hù)用何炅的姓名和肖像“調(diào)教”出來(lái)一個(gè)聊天機(jī)器人。最終北京互聯(lián)網(wǎng)法院認(rèn)定,被告公司的產(chǎn)品不僅侵犯了何炅的肖像權(quán),而且還對(duì)原告的人格自由和人格尊嚴(yán)造成潛在負(fù)面影響,判決被告賠禮道歉、賠償損失。
聊天機(jī)器人也好,更復(fù)雜一些的AI應(yīng)用也好,涉及到一些用現(xiàn)有邏輯就能解決的法律問(wèn)題。監(jiān)管和執(zhí)法部門(mén)只需要把從前給傳統(tǒng)媒體和互聯(lián)網(wǎng)治理畫(huà)的“紅線”稍微再畫(huà)長(zhǎng)一點(diǎn),就能把AIGC、虛擬人也涵蓋進(jìn)去。
2023年1月10日,網(wǎng)信辦、工信部、公安部聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡(jiǎn)稱(chēng)為《規(guī)定》)開(kāi)始實(shí)施。該法規(guī)的關(guān)鍵詞“深度合成”(Deep Synthesis),指的是用深度學(xué)習(xí)或虛擬現(xiàn)實(shí)方法生成數(shù)字作品的技術(shù),涵蓋AI生成的文字、圖像和聲音,也包含合成人聲、換臉、仿真空間等數(shù)字產(chǎn)品——這主要是AI領(lǐng)域在兩年前出圈的應(yīng)用,但也能夠?qū)IGC納入合規(guī)范圍。
《規(guī)定》中的具體內(nèi)容主要是從前監(jiān)管要求的必要延伸。比如,傳統(tǒng)上的信息服務(wù),需要保證產(chǎn)品的信息安全屬性,不侵犯他人的隱私、肖像權(quán)、人格權(quán)、知識(shí)產(chǎn)權(quán);這些原則現(xiàn)在也按《規(guī)定》適用于深度合成的產(chǎn)品或者服務(wù)。類(lèi)似地,《規(guī)定》還要求內(nèi)容平臺(tái)履行審核義務(wù),保證平臺(tái)上發(fā)布的深度合成作品符合法律法規(guī)、不危害國(guó)家安全和社會(huì)穩(wěn)定。
從現(xiàn)有的新規(guī)和判例可以看到,雖然目前虛擬人在版權(quán)、人格權(quán)、內(nèi)容安全等方面存在爭(zhēng)議,但這些爭(zhēng)議在多數(shù)情況下沒(méi)什么好爭(zhēng)的。線問(wèn)題上,沒(méi)有新鮮事。業(yè)內(nèi)需要的只是一套明確的合規(guī)原則和責(zé)任認(rèn)定,然后在各自的角色上繼續(xù)開(kāi)展工作。
商湯科技是AI數(shù)字人技術(shù)的一個(gè)領(lǐng)軍企業(yè),其發(fā)言人告訴虎嗅:“《規(guī)定》給出了比較符合當(dāng)前業(yè)務(wù)邏輯的責(zé)任劃分,為‘技術(shù)支持者’、‘內(nèi)容提供者’及其他行業(yè)主體提供了比較明確的合規(guī)預(yù)期,并且也有助于規(guī)范市場(chǎng),提升消費(fèi)者的信心?!?/p>
不要被科幻帶跑
擔(dān)憂(yōu)虛擬人倫理風(fēng)險(xiǎn)的言論很有市場(chǎng)。但杞人憂(yōu)天的角色不適合由政府監(jiān)管來(lái)領(lǐng)銜。虛擬人的社會(huì)責(zé)任探索,還是需要由企業(yè)和市場(chǎng)更自發(fā)地完成。這里面,企業(yè)社會(huì)責(zé)任有很大的發(fā)揮空間。
這里有一個(gè)新鮮出爐的反面教材:歐盟的《人工智能法》。這部法律草擬于2021年,即將在3月底(也就是本文發(fā)稿的幾天后)拿到歐洲議會(huì)上投票。
但是,投不投票已經(jīng)不重要了。因?yàn)镃hatGPT的面世,已經(jīng)顛覆了《人工智能法》的一部分初衷。比如,歐盟《人工智能法》提議禁止一些有悖人權(quán)的人工智能應(yīng)用,比如某些人臉識(shí)別應(yīng)用。但是像ChatGPT這種泛用途的生成式AI,很難用原有的立法思路去判定它的風(fēng)險(xiǎn)性。順著《人工智能法》的精神,歐盟可以權(quán)且把GPT判定為“高風(fēng)險(xiǎn)AI”。但這無(wú)異于固步自封。
其實(shí)即便在ChatGPT問(wèn)世之前,歐洲議會(huì)的議員已經(jīng)提出反對(duì)意見(jiàn),指《人工智能法》對(duì)AI的應(yīng)用管得太細(xì),將阻礙歐盟的科技創(chuàng)新。
一位AI倫理的研究者告訴虎嗅,其實(shí)歐盟的立法從2018年生效的《通用數(shù)據(jù)保護(hù)條例》(GDPR)開(kāi)始,就已經(jīng)對(duì)AI技術(shù)的發(fā)展產(chǎn)生實(shí)質(zhì)上的阻礙作用了。很多技術(shù)企業(yè)由于這部數(shù)據(jù)安全法的限制,而難以實(shí)現(xiàn)技術(shù)上的創(chuàng)新。
《人工智能法》又一次實(shí)踐了歐盟立法機(jī)構(gòu)的行事風(fēng)格:快速介入、保護(hù)人權(quán)、對(duì)技術(shù)保持充分的不信任。歐盟在AI技術(shù)還在急速演化的階段,就倉(cāng)促立法規(guī)范,導(dǎo)致《人工智能法》陷入如今的尷尬局面。這說(shuō)明,現(xiàn)階段的AI倫理方面的治理還是需要由企業(yè)來(lái)主導(dǎo)。
雖然立法和行政部門(mén)不宜在AI治理領(lǐng)域介入過(guò)多,但是法律的保守立場(chǎng)是一貫的。
具體到虛擬人議題上,法律在未來(lái)可預(yù)見(jiàn)的時(shí)間里,應(yīng)該不會(huì)把AI和虛擬人當(dāng)人看待。換句話說(shuō),再完善的人工智能,法律也不會(huì)認(rèn)為它具備能動(dòng)性和自主動(dòng)機(jī);AI和虛擬人牽涉的各種風(fēng)險(xiǎn),最終都要追責(zé)到相關(guān)的個(gè)人或者組織頭上。
這看起來(lái)或許非常不浪漫。在各種科幻作品中的人工智能造物,乃至真實(shí)投入市場(chǎng)的虛擬偶像、虛擬網(wǎng)紅,都被營(yíng)造出一種“有自己獨(dú)立的想法和人格、能自主決策”的樣子。但是從當(dāng)下法學(xué)的主流態(tài)度來(lái)看,法律是不會(huì)把虛擬人當(dāng)作責(zé)任主體的。虛擬人所犯的所有錯(cuò)誤,都需要背后的技術(shù)供應(yīng)商、內(nèi)容供應(yīng)商、運(yùn)營(yíng)商等實(shí)體來(lái)承擔(dān)。我們短時(shí)間內(nèi)不能指望虛擬人會(huì)依法承擔(dān)任何責(zé)任,抑或享有任何經(jīng)濟(jì)和政治權(quán)利。虛擬人只是作品,一如你早上煎的雞蛋也是作品。作品原本就不應(yīng)和“坐牢”扯上關(guān)系。作品出了問(wèn)題,只能是你的責(zé)任。
至此,我們可以把“如何給虛擬人一個(gè)合格的靈魂”這么一個(gè)浪漫的問(wèn)題,簡(jiǎn)化成一個(gè)企業(yè)治理和社會(huì)責(zé)任問(wèn)題。
負(fù)責(zé)任AI,一個(gè)企業(yè)治理話題
經(jīng)過(guò)幾年的討論和積淀,人類(lèi)對(duì)AI的一般倫理要求,通??偫椤柏?fù)責(zé)任AI”(responsible AI)或“可信AI”(trustworthy AI)這兩個(gè)概念。兩個(gè)表述也可以套用到AI的各個(gè)子產(chǎn)物上。正如信通院要制定的那個(gè)標(biāo)準(zhǔn),說(shuō)的是“可信虛擬人內(nèi)容生成”。
“負(fù)責(zé)任”或“可信”的總要求,又可以拆分成幾條具體的原則。不同科技公司有不同的拆法,但基本上大同小異。就拿行業(yè)先驅(qū)微軟為例,它把負(fù)責(zé)任AI歸納為6個(gè)原則:公平性、安全與可靠、隱私與數(shù)據(jù)安全、包容性、透明性、可問(wèn)責(zé)性。
還拿《流浪地球》舉例,電影中的MOSS人工智能通過(guò)常人無(wú)法理解的計(jì)算,得出“保存人類(lèi)文明的*選擇是毀滅人類(lèi)”的結(jié)論。從可信AI的原則上講,MOSS首先是不透明的,是一個(gè)計(jì)算黑箱,很難看出她是哪根筋搭錯(cuò)了,才得出那樣逆天的結(jié)論;同時(shí)也是不安全、不可靠、不可控的;最后她還是不可問(wèn)責(zé)的,MOSS給作品中的人類(lèi)社會(huì)造成種種問(wèn)題,但人們卻拿她一點(diǎn)辦法沒(méi)有。
電影中的這種AI很能創(chuàng)造戲劇沖突,但現(xiàn)實(shí)中的AI倫理工作,與其假想出這樣一個(gè)逆天的AI,然后再感到茫然無(wú)措,不如從一開(kāi)始就杜絕失控的苗頭。
產(chǎn)業(yè)鏈上比較大的技術(shù)供應(yīng)商通常都設(shè)有專(zhuān)門(mén)的AI倫理部門(mén),他們依據(jù)對(duì)可信AI的原則拆分,開(kāi)發(fā)出促進(jìn)公平、安全、透明等特性的技術(shù)解決方案,并將方案開(kāi)源。比如下圖是IBM開(kāi)源出來(lái)的一些促進(jìn)AI公平性的算法。

但技術(shù)遠(yuǎn)不是全部。正如信通院和京東探索研究院的《可信人工智能白皮書(shū)》所說(shuō),沒(méi)有*的技術(shù),關(guān)鍵在于如何使用技術(shù)。
可信AI也是一套企業(yè)的工作方式,乃至是企業(yè)文化。微軟在公司的負(fù)責(zé)任AI辦公室網(wǎng)站上透露,團(tuán)隊(duì)在設(shè)計(jì)和研發(fā)AI產(chǎn)品時(shí)都會(huì)圍繞前述的“負(fù)責(zé)任AI六原則”進(jìn)行腦暴,分析可能的問(wèn)題與疏漏,并且在運(yùn)營(yíng)中持續(xù)監(jiān)測(cè)其表現(xiàn)。微軟也建議AI的運(yùn)營(yíng)使用者也這么做。
單靠公司內(nèi)部腦暴還是不夠的。正如OpenAI的首席技術(shù)官M(fèi)ira Murati在采訪中表示,由于GPT是一個(gè)非常泛用的工具,開(kāi)發(fā)者其實(shí)很難事先知道它的所有潛在影響力和缺陷。所以公司才將GPT的部分功能開(kāi)放給公眾,以探索這項(xiàng)技術(shù)的潛在問(wèn)題。
可信虛擬人有什么特別的治理問(wèn)題
具體到結(jié)合AIGC的虛擬人,會(huì)引發(fā)什么特殊的治理問(wèn)題嗎?目前業(yè)界存在一些社會(huì)責(zé)任思考,只不過(guò)這些思考的體系化和行業(yè)共識(shí)程度低一些。對(duì)此,商湯科技作為《可信虛擬人生成內(nèi)容管理系統(tǒng)技術(shù)要求》的主要編制單位之一,向虎嗅透露了參與該項(xiàng)目的一些初衷。
關(guān)于可信虛擬人的特殊問(wèn)題,商湯提到,當(dāng)AIGC技術(shù)被用于虛擬人生成之后,尤其當(dāng)擁有ChatGPT那樣的智能交互能力之后,虛擬人可以實(shí)現(xiàn)“超寫(xiě)實(shí)”的效果。讓人真假難辨的虛擬人,可能會(huì)放大相關(guān)的風(fēng)險(xiǎn),加重給當(dāng)事人可能造成的危害。在這種情況下,除了現(xiàn)行的AIGC管理方式之外,負(fù)責(zé)任的企業(yè)可以同時(shí)利用一系列技術(shù)方案來(lái)加固虛擬人的可信力度。公司希望今年就這個(gè)問(wèn)題推進(jìn)行業(yè)內(nèi)達(dá)成共識(shí)。
據(jù)商湯科技介紹,在虛擬現(xiàn)實(shí)與元宇宙產(chǎn)業(yè)聯(lián)盟(XRMA)中,成員企業(yè)一致認(rèn)同“可信”問(wèn)題是與產(chǎn)業(yè)發(fā)展同等重要的,技術(shù)推進(jìn)與社會(huì)責(zé)任不可偏廢。此外另一個(gè)共識(shí)在于“虛擬人不與現(xiàn)實(shí)脫鉤”——AIGC不與真人的意愿脫鉤,虛擬人的權(quán)屬不與現(xiàn)實(shí)約束脫節(jié),且產(chǎn)業(yè)不與監(jiān)管脫節(jié)。這些共識(shí),預(yù)計(jì)會(huì)在“可信虛擬人AIGC”以及今后的各個(gè)行業(yè)標(biāo)準(zhǔn)中,得到進(jìn)一步的闡發(fā)。
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請(qǐng)?jiān)谖闹凶⒚鱽?lái)源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請(qǐng)及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com





