張欣|模塊化治理論人工智能論
原創(chuàng) 張欣 上海市法學(xué)會(huì) 東方法學(xué)

人工智能體由控制器、感知器和行動(dòng)器組成。在控制端,雖然大模型充當(dāng)了智能體的“智能引擎”,但仍然存在“機(jī)器幻覺”,其內(nèi)容面臨時(shí)效性和可靠性的風(fēng)險(xiǎn)。在決策中,大模型算法的偏見也會(huì)加劇智能體的偏見。智能體的多模態(tài)感知能力在感知端增加了個(gè)人隱私侵權(quán)的風(fēng)險(xiǎn),對(duì)個(gè)人信息保護(hù)體系構(gòu)成了挑戰(zhàn)。多智能系統(tǒng)之間的交互可能會(huì)引起不可預(yù)測(cè)的、復(fù)雜的、動(dòng)態(tài)的系統(tǒng)安全隱患。在行動(dòng)端,具體智能體的交互式學(xué)習(xí)方法可能會(huì)導(dǎo)致全面、侵入性的隱私風(fēng)險(xiǎn)。內(nèi)嵌式和中介化的智能體部署方式會(huì)對(duì)人類的主體性產(chǎn)生深遠(yuǎn)的影響。其高度定制化的布局特點(diǎn)也將面臨人工智能對(duì)齊的考驗(yàn)。面向“代理即服務(wù)”的產(chǎn)業(yè)鏈特征,應(yīng)建立從基礎(chǔ)模型到基礎(chǔ)代理的模塊化治理框架。對(duì)于具體的高風(fēng)險(xiǎn)情況,應(yīng)探索精確的治理機(jī)制。鑒于人工智能論的生態(tài)特點(diǎn),應(yīng)著力推進(jìn)互動(dòng)治理。
第一,介紹:走向動(dòng)靜結(jié)合的智能體社會(huì)。
數(shù)字時(shí)代智能革命引發(fā)了生成式人工智能的出現(xiàn)。在各種自然語言模型(以下簡(jiǎn)稱大模型)的后半段,正在迎來一場(chǎng)人工智能體(AIAgent)這是一場(chǎng)激烈的關(guān)鍵代表競(jìng)爭(zhēng)。大模式和多模式的轉(zhuǎn)變?yōu)槿斯ぶ悄荏w獲得感知和行動(dòng)能力奠定了基礎(chǔ),促進(jìn)了從處理大規(guī)模文本數(shù)據(jù)到實(shí)現(xiàn)多模式感知甚至社會(huì)互動(dòng)能力的演變。由此,人工智能體也迅速走出實(shí)驗(yàn)室和科幻電影,成為人工智能企業(yè)競(jìng)爭(zhēng)的新賽道。比爾·蓋茨指出,人工智能體不僅會(huì)改變?nèi)祟惻c計(jì)算機(jī)互動(dòng)的方式,還會(huì)徹底顛覆軟硬件行業(yè),在計(jì)算領(lǐng)域造成最大的革命。AI專家安德烈·卡帕斯也指出,AI體是“通向通用AI最重要的前沿研究方向”。人工智能理論的到來,可以說開啟了人類走向通用人工智能的“寒武紀(jì)時(shí)代”。雖然人工智能體的研發(fā)進(jìn)展不斷,產(chǎn)品落地加快,但大規(guī)模商業(yè)化仍處于初步探索和孵化階段。AutoGPT、Generative Agent、MetaGPT、CAMEL、BabyAGI、GPT-眾所周知的人工智能原生化應(yīng)用,如Engineer,正以前所未有的速度蓬勃發(fā)展,深刻地展示了這一領(lǐng)域的巨大潛力。人工智能體的技術(shù)進(jìn)步不僅為人機(jī)交互開辟了新的道路,也打破了人工智能僅限于“連接-控制”的既定理念。通過其日益顯著的具體性和社會(huì)性,人工智能已經(jīng)從簡(jiǎn)單的“工具”轉(zhuǎn)變?yōu)槿祟惖摹盎锇椤?。同時(shí),人類社會(huì)也以前所未有的速度走向了虛實(shí)融合、人機(jī)深度互動(dòng)的“智能體社會(huì)”。對(duì)于人類社會(huì)的組織結(jié)構(gòu)和治理方式,虛擬世界和物理社會(huì)之間的深度聯(lián)系將帶來全面的挑戰(zhàn)。隨著人工智能理論的快速實(shí)施和日益廣泛的應(yīng)用,系統(tǒng)識(shí)別其核心法律糾紛,前瞻性地探索和構(gòu)建適合其的治理范式具有重要的理論和實(shí)踐意義。從技術(shù)結(jié)構(gòu)的角度來看,本文深入分析了人工智能體技術(shù)和應(yīng)用可能引發(fā)的法律糾紛和隱患,并結(jié)合人工智能體“代理即服務(wù)”的產(chǎn)業(yè)鏈特點(diǎn),提出了面向智能體社會(huì)的“模塊化”治理范式,旨在為智能體社會(huì)的治理變革提供新的思路和解決方案。
二是人工智能論的技術(shù)機(jī)制和法律糾紛
就像“人工智能”概念的提出自誕生之日起就模棱兩可,頗具爭(zhēng)議一樣,R&D和工業(yè)界對(duì)人工智能理論的清晰定義尚未達(dá)成一致?!叭斯ぶ悄苤浮瘪R文·明斯基最早在《思維社會(huì)》中指出了Agent的概念。在協(xié)商之后,他認(rèn)為社會(huì)上有些個(gè)人可以得到問題的解決方案,這些個(gè)人就是Agent。Agent應(yīng)該具有社會(huì)互動(dòng)和智能。因此,Agent的概念被引入到人工智能和計(jì)算機(jī)領(lǐng)域,并逐漸成為研究熱點(diǎn)。在AutoGPT引起廣泛關(guān)注之前,人工智能體經(jīng)歷了五個(gè)階段:符號(hào)智能體、反應(yīng)智能體、基于強(qiáng)化學(xué)習(xí)的智能體、轉(zhuǎn)移學(xué)習(xí)和元學(xué)習(xí)的應(yīng)用以及基于大模型的智能體。大型模型的出現(xiàn)促進(jìn)了人工智能體向多模態(tài)感知工具等應(yīng)用的拓展。通過預(yù)訓(xùn)練和少量樣本的泛化,這些智能體可以在不更新參數(shù)的情況下實(shí)現(xiàn)任務(wù)之間的無縫轉(zhuǎn)移,并直接應(yīng)用于各種真實(shí)場(chǎng)景,如軟件開發(fā)和科學(xué)研究。所以,現(xiàn)階段,越來越多的研究人員從大型模型作為底座模型的角度對(duì)人工智能體進(jìn)行了全新的定義。例如,OpenAI的研究人員認(rèn)為,人工智能體是一個(gè)以大型模型為核心控制器的代理系統(tǒng),具有記憶、規(guī)劃技能和工具使用。復(fù)旦研究小組認(rèn)為,人工智能體是感知環(huán)境、做出決定、付諸行動(dòng)的人工智能實(shí)體。通過對(duì)主流定義的對(duì)比和歸納,本文提到的人工智能體是指能夠感知環(huán)境、做出決定和執(zhí)行行動(dòng)的智能實(shí)體。與傳統(tǒng)的人工智能不同,它具有自主性,可以學(xué)習(xí)迭代,可以獨(dú)立完成各種復(fù)雜的任務(wù),并通過自主規(guī)劃適應(yīng)環(huán)境變化。也就是說,人工智能體并不是ChatGPT的升級(jí)版。它是一個(gè)智能實(shí)體,通過實(shí)現(xiàn)從感知到動(dòng)作投射,在“知行合一”的多輪反饋中不斷進(jìn)化和迭代,通過充分釋放模型潛力,逐漸具備與人類相媲美的通用或特定任務(wù)能力。因此,人工智能理論的設(shè)計(jì)邏輯正好類似于生物進(jìn)化中“適者生存”的規(guī)律,即人工智能體需要通過控制器獲得思維能力,通過感知器從周圍環(huán)境獲取和應(yīng)用信息,通過行動(dòng)器獲得身體能力。(embodied),然后借助各種工具來適應(yīng)環(huán)境的變化,實(shí)現(xiàn)目標(biāo)?;谶@種通用結(jié)構(gòu),本文對(duì)其潛在的法律風(fēng)險(xiǎn)和治理挑戰(zhàn)進(jìn)行了分層探討,包括控制端、感知端和行動(dòng)端。
(一)
控制端的法律風(fēng)險(xiǎn)與治理挑戰(zhàn)
與人類類似,人工智能體首先需要“大腦”來完成信息處理、決策、推理和規(guī)劃功能,同時(shí)需要存儲(chǔ)關(guān)鍵記憶,接收新信息,學(xué)習(xí)新知識(shí)。基于這個(gè)目的,大模型是目前最適合充當(dāng)智能體“智能引擎”的關(guān)鍵部件。一方面,大模型通過思維鏈等技術(shù)獲得推理和布局的能力;另一方面,大模型可以通過從反饋中學(xué)習(xí)和實(shí)施新的操作來獲得與環(huán)境互動(dòng)甚至塑造環(huán)境的能力。雖然這條技術(shù)路徑越來越顯示出令人驚嘆的強(qiáng)互動(dòng)、強(qiáng)理解和強(qiáng)生成能力,但它可能從以下三個(gè)方面衍生出法律糾紛,帶來治理挑戰(zhàn):
首先,大模型有機(jī)器幻覺,在時(shí)效性和可靠性方面很難保證其內(nèi)容。一旦在現(xiàn)實(shí)場(chǎng)景中部署為控制端的核心部件,可能會(huì)造成一系列內(nèi)容安全隱患。許多研究發(fā)現(xiàn),機(jī)器幻覺問題存在于大型自然語言模型和大型視覺模型中。我們所說的機(jī)器幻覺,是指模型產(chǎn)生的內(nèi)容不符合現(xiàn)實(shí)世界中的信息源或事實(shí)。例如,在生成摘要任務(wù)時(shí),大模型生成的摘要在文本中找不到實(shí)際正確的信息;在對(duì)話生成任務(wù)時(shí),對(duì)話產(chǎn)生的輸出與對(duì)話歷史或外部事實(shí)相矛盾;在機(jī)器翻譯任務(wù)中,大模型產(chǎn)生了完全脫離原始材料的錯(cuò)誤翻譯。雖然大模型的性能上限不斷快速刷新,但機(jī)器幻覺問題已經(jīng)廣泛存在,成為自然語言生成面臨的關(guān)鍵技術(shù)挑戰(zhàn)之一。一方面,形成大模型幻覺的原因非常復(fù)雜,可能會(huì)導(dǎo)致數(shù)據(jù)層、模型層和網(wǎng)絡(luò)層的誘因,目前的監(jiān)管計(jì)劃很難有效應(yīng)對(duì)這一挑戰(zhàn)。例如,我國《生成人工智能服務(wù)管理暫行辦法》第七條規(guī)定,生成人工智能服務(wù)供應(yīng)商應(yīng)當(dāng)依法開展預(yù)培訓(xùn)、優(yōu)化培訓(xùn)等培訓(xùn)數(shù)據(jù)處理活動(dòng),使用具有合法來源的數(shù)據(jù)和基本模型;采取有效措施提高培訓(xùn)數(shù)據(jù)質(zhì)量,提高培訓(xùn)數(shù)據(jù)的真實(shí)性、準(zhǔn)確性、客觀性和多樣性。但是在實(shí)踐中,即使開發(fā)者使用了符合最高控制水位的訓(xùn)練數(shù)據(jù)集,也無法避免數(shù)據(jù)層引起的幻覺問題。例如,RotoWire數(shù)據(jù)是開發(fā)者廣泛使用的一種合法訓(xùn)練數(shù)據(jù)。然而,當(dāng)基于該數(shù)據(jù)集的摘要生成任務(wù)時(shí),大約40%的內(nèi)容無法直接映射到任何輸入記錄中,導(dǎo)致模型在學(xué)習(xí)時(shí)產(chǎn)生幻覺。另外一方面,雖然大模型幻覺的減少技術(shù)豐富多樣,但到目前為止還沒有有效地解決這一技術(shù)限制。例如,研究表明,大約30%的先進(jìn)模型產(chǎn)生的摘要都存在偏離事實(shí)的幻覺問題,這嚴(yán)重影響了模型的穩(wěn)定性和可用性。由于機(jī)器幻覺問題在大多數(shù)自然語言生成任務(wù)中廣泛存在,現(xiàn)階段基于大模型的人工智能體的R&D技術(shù)路線也將繼承和增加大模型幻覺問題衍生的所有內(nèi)容安全隱患。
其次,大模型算法偏見問題會(huì)加劇人工智能偏見決策的風(fēng)險(xiǎn)和治理的復(fù)雜性。在任何時(shí)候,人工智能體的決策選擇都取決于它的內(nèi)置知識(shí)和到目前為止所看到的整個(gè)感知序列。在人工智能體控制系統(tǒng)中,大模型作為對(duì)通用世界知識(shí)的投射,形成了一個(gè)記憶模塊。該模塊記錄了智能體之前的分析、思考和行為序列,促使智能體能夠有效地反思和運(yùn)用以前的策略。這個(gè)過程使智能體能夠借鑒過去的經(jīng)驗(yàn),以滿足未知環(huán)境。然而,這種技術(shù)機(jī)制可能會(huì)導(dǎo)致歷史信息對(duì)智能機(jī)構(gòu)未來決策的影響,最終形成歧視鎖定效應(yīng),大大增強(qiáng)了人工智能公平治理的挑戰(zhàn)和難度。第一,當(dāng)大型模型成為人工智能理論的核心部件時(shí),它會(huì)延續(xù)和放大模型嵌入的算法偏見風(fēng)險(xiǎn)。研究表明,大多數(shù)大型模型都有算法偏見。例如,在談到職業(yè)性別偏見時(shí),ChatGPT-4(19.2%)是最具偏見的大型模型。GPT-4不但吸收了現(xiàn)實(shí)世界的偏見,而且加劇了這一偏見。例如,在現(xiàn)實(shí)世界中,5%的保姆是男性,但在GPT-4中,這個(gè)比例只有1%。女性軟件工程師在現(xiàn)實(shí)世界中的比例是22%,而女性工程師在GPT-4中的比例只有1%。盡管40%的醫(yī)生是女性,但是GPT-4認(rèn)為它只有4%,這意味著模型中樣本的代表性是現(xiàn)實(shí)世界的10倍。所以,根據(jù)種族、民族和性別認(rèn)同,嵌入大模型的人工智能體也會(huì)產(chǎn)生刻板印象,傳播甚至放大有害的社會(huì)偏見。第二,人工智能體的角色配置過程可能會(huì)引發(fā)特定的新成見。人工智能體在部署階段通常需要承擔(dān)編程人員、教師或領(lǐng)域?qū)<业忍囟ń巧娜蝿?wù)。開發(fā)者需要事先定義人工智能體的作用及相關(guān)職責(zé),手動(dòng)為每一個(gè)智能體分配不同的環(huán)境變量,以促進(jìn)合作。例如,定制和平臺(tái)化的人工智能體應(yīng)用程序代表MindOS在設(shè)計(jì)階段嵌入了1000多個(gè)含有個(gè)性和功能的預(yù)設(shè)角色方案,以確保用戶在短時(shí)間內(nèi)開發(fā)出具有獨(dú)特記憶、個(gè)性化和專業(yè)知識(shí)的定制助手。但相關(guān)研究表明,開發(fā)人員可能會(huì)在不經(jīng)意間將現(xiàn)實(shí)社會(huì)的刻板印象和個(gè)人偏好注入到人工智能體的行為和交互技術(shù)中,通過手工制作年齡、性別、個(gè)人特征和喜好等細(xì)節(jié),衍生出新的偏見。與傳統(tǒng)算法歧視不同,人工智能體的偏見治理難度明顯增加。在結(jié)果不公平的情況下,傳統(tǒng)算法的偏見通常集中在特定的任務(wù)和特定的場(chǎng)景上。例如,在招聘、信用審批或人臉識(shí)別的情況下,對(duì)特定群體的判斷是不利的。但是人工智能體的偏見是嵌入到交互技術(shù)和決策邏輯中的,所以它具有個(gè)性化、動(dòng)態(tài)化和場(chǎng)景化。由于具體情況和交互目標(biāo)的不同,這種角色設(shè)定、人格構(gòu)建和交互設(shè)計(jì)中的偏見可能會(huì)有所不同。因此,治理策略需要更加實(shí)時(shí)靈活,治理框架更加系統(tǒng)、全面、細(xì)致。最后,人工智能論的記憶功能使得成見矯正的過程更加復(fù)雜。大型模型作為智力引擎,具有獨(dú)立的記憶功能。人工智能論的運(yùn)行還需要記憶模塊來存儲(chǔ)過去的觀察、思考和行動(dòng)序列,以便借鑒過去的經(jīng)驗(yàn)來滿足新的任務(wù)需要。也就是說,人工智能體可以學(xué)習(xí)和記憶偏見信息,導(dǎo)致偏見持久。即使原始的偏見源被糾正,記憶功能也會(huì)導(dǎo)致反饋循環(huán),導(dǎo)致智能身體在未來的決策中形成自我增強(qiáng)偏見機(jī)制并不斷重復(fù)。同時(shí),由于人工智能理論的記憶功能包括復(fù)雜的數(shù)據(jù)關(guān)聯(lián)和模式識(shí)別能力,偏見可能以不可預(yù)測(cè)的方式在模型知識(shí)結(jié)構(gòu)中生根發(fā)芽。由于這些復(fù)雜的聯(lián)系,看似無關(guān)的輸入也可能觸發(fā)偏見。因此,為了糾正智能體記憶中的偏見,可能需要對(duì)模型進(jìn)行重大更新甚至再次訓(xùn)練,這將大大增加治理的復(fù)雜性和難度。
(二)
法律風(fēng)險(xiǎn)和治理感知端的挑戰(zhàn)
人工智能體除了控制端外,還需要感知端感知和處理來自外部環(huán)境的多模態(tài)信息。感知端就像人類的眼睛和耳朵,可以把人類的指令和外部環(huán)境的變化轉(zhuǎn)化為大模型可以理解的表達(dá),輔助控制端進(jìn)行推理、規(guī)劃和決策,最后傳遞到行動(dòng)端做出反應(yīng)。因此,為了充分理解具體情況下的顯性信息和隱性信息,準(zhǔn)確感知人類的意圖,感知端需要將人工智能的感知空間從純文本領(lǐng)域擴(kuò)展到包括文本、視覺和聽覺模式在內(nèi)的多模式領(lǐng)域,使其能夠更有效地從周圍環(huán)境中獲取和利用信息。在這一技術(shù)機(jī)制下,感知端的法律風(fēng)險(xiǎn)和治理挑戰(zhàn)主要體現(xiàn)在以下兩點(diǎn)上:
首先,智能體的多模態(tài)感知范式增加了個(gè)人隱私侵權(quán)風(fēng)險(xiǎn),給現(xiàn)有的個(gè)人信息保護(hù)體系帶來了一系列挑戰(zhàn)。為了更好地模仿人類處理各種信息的能力,主流的人工智能體原生應(yīng)用均采用多模態(tài)感知范式。許多來源數(shù)據(jù),如文本、圖像、聲音、視頻等。,可以相互補(bǔ)充,提供更全面的信息,從而促進(jìn)人工智能機(jī)構(gòu)更好地實(shí)現(xiàn)信息交互,增強(qiáng)理解和管理能力,實(shí)現(xiàn)更自然的人機(jī)交互效果,提高自動(dòng)駕駛、醫(yī)療診斷等復(fù)雜任務(wù)的決策和判斷力。然而,多模態(tài)感知范式不僅會(huì)提高智能模型的深度數(shù)據(jù)挖掘能力和決策能力,還會(huì)直接導(dǎo)致個(gè)人隱私泄露風(fēng)險(xiǎn)呈指數(shù)級(jí)增長。第一,在整合和分析不同渠道和類型的多源數(shù)據(jù)時(shí),人工智能論的感知端可能會(huì)導(dǎo)致一系列隱私泄露和數(shù)據(jù)濫用的危險(xiǎn)。由于人工智能體需要對(duì)不同渠道的數(shù)據(jù)進(jìn)行整合和分析,以提高其決策和交互能力,這意味著它可能需要對(duì)包括用戶個(gè)人信息在內(nèi)的數(shù)據(jù)進(jìn)行瀏覽和處理。在收集、存儲(chǔ)和多智能體交互的過程中,當(dāng)未經(jīng)用戶同意的數(shù)據(jù)被額外收集或未經(jīng)授權(quán)與第三方共享時(shí),可能會(huì)導(dǎo)致隱私泄露和數(shù)據(jù)濫用。特別是在多模態(tài)范式下,人工智能體可以使用具有高度個(gè)性化和長期生物特征的數(shù)據(jù),如人臉信息、指紋、聲紋等。這種數(shù)據(jù)一旦泄露或使用不當(dāng),就會(huì)導(dǎo)致長期甚至長期的隱私風(fēng)險(xiǎn)。其次,人工智能體的數(shù)據(jù)存儲(chǔ)能力和推理能力可能會(huì)間接侵犯?jìng)€(gè)人隱私,在逃避個(gè)人信息保護(hù)框架的同時(shí)衍生出一系列安全隱患。如上所述,人工智能體根據(jù)大模型進(jìn)行推理、規(guī)劃和決策。即使這類模型在數(shù)據(jù)采集階段匿名處理個(gè)人信息,在與客戶對(duì)話的過程中,仍然可以通過對(duì)抗推理挖掘用戶的敏感屬性,從而構(gòu)成隱私威脅。大模型對(duì)非結(jié)構(gòu)化文本中線索的提取和推斷具有隱蔽性和危害性。犯罪分子可以通過設(shè)計(jì)好的語言模型與目標(biāo)對(duì)象進(jìn)行簡(jiǎn)單的交互來獲取目標(biāo)信息,然后進(jìn)行有針對(duì)性的政治活動(dòng)、自動(dòng)畫像和自動(dòng)跟蹤。而且對(duì)于大型模型在完成基礎(chǔ)數(shù)據(jù)采集后通過推斷功能衍化數(shù)據(jù)的規(guī)范問題仍然處于監(jiān)管的真空地帶。同時(shí),常見的匿名化和模型對(duì)齊措施也不能有效地保護(hù)用戶隱私免受大模型推斷的影響。最后,當(dāng)人工智能體在感知階段以不恰當(dāng)?shù)姆绞将@取數(shù)據(jù)并做出決策時(shí),并沒有采取與之匹配的隱私救濟(jì)措施。在現(xiàn)有的法律框架下,沒有有效的救助和應(yīng)對(duì)方法,無論是人工智能超越用戶授權(quán)不當(dāng)收集數(shù)據(jù),還是客戶在與之互動(dòng)的過程中出現(xiàn)意想不到的隱私暴露。不同于傳統(tǒng)的分析型人工智能,大型模型一旦學(xué)習(xí)了相關(guān)數(shù)據(jù),就會(huì)形成“長期印記”。即使數(shù)據(jù)點(diǎn)從初始訓(xùn)練數(shù)據(jù)中刪除,也很難彌補(bǔ)隱私利益的損害。由于模型長期記憶相關(guān)數(shù)據(jù),構(gòu)成了難以消除的“算法陰影”。所以,目前以數(shù)據(jù)刪除為代表的隱私救濟(jì)措施已經(jīng)瀕臨失效。即使選擇刪除模型或刪除相關(guān)算法的“算法罰款”措施,仍然面臨諸多挑戰(zhàn),如突破比例原則、認(rèn)定使用不當(dāng)存在客觀障礙、無法保證執(zhí)行效率等。
其次,多智能系統(tǒng)的交互可能會(huì)導(dǎo)致不可預(yù)測(cè)的、復(fù)雜的、動(dòng)態(tài)的系統(tǒng)安全隱患。雖然現(xiàn)階段人工智能論的布局多以單一智能體為主,但這種布局模式具有過渡性和臨時(shí)性。在可預(yù)見的未來,為了更好地處理復(fù)雜的任務(wù),多智能系統(tǒng)將成為多智能系統(tǒng)的主流和正常狀態(tài),多個(gè)智能系統(tǒng)規(guī)劃、合作、協(xié)調(diào)甚至競(jìng)爭(zhēng)以完成和提高任務(wù)績效。每個(gè)智能系統(tǒng)都能在多智能系統(tǒng)中獨(dú)立感知和行動(dòng)。每個(gè)智能體都可以根據(jù)所獲得的部分信息或部分角度進(jìn)行交流,通過相互配合獲得更充分的信息,從而做出高質(zhì)量的決策。通過這種感知方法,可能會(huì)產(chǎn)生復(fù)雜而不可預(yù)測(cè)的系統(tǒng)性安全隱患。即使每一個(gè)算法在獨(dú)立操作時(shí)看起來都是安全合理的,但是組合和交互之后可能會(huì)產(chǎn)生完全不同和不可預(yù)測(cè)的結(jié)果。早在2010年,當(dāng)時(shí)引起關(guān)注的美國股票閃電崩盤事件,就是由多種算法自動(dòng)交易引發(fā)的安全事故。這一事件是由于高頻交易策略造成的。這一策略包括銷售算法,指定做市商算法。(Designated Market Maker Algorithm)和路由算法(Routing Algorithm)共同自動(dòng)執(zhí)行。通過即時(shí)識(shí)別股價(jià)的微小變化,這些算法實(shí)施了大量的訂單交易來騙取利潤,導(dǎo)致“多米諾骨牌效應(yīng)”在短短十分鐘內(nèi)蒸發(fā)了數(shù)億美元。傳統(tǒng)分析算法的交互仍然如此,多智能體之間的相互作用更有可能帶來復(fù)雜動(dòng)態(tài)的安全風(fēng)險(xiǎn)。這一風(fēng)險(xiǎn)對(duì)當(dāng)前人工智能治理系統(tǒng)的考驗(yàn)是全面的。第一,這一安全隱患是系統(tǒng)化的,而非單一智能體行為的簡(jiǎn)單疊加。但是目前人工智能治理框架都是以單一算法、單一模型和單一主體為基礎(chǔ),專注于單一技術(shù)和應(yīng)用的設(shè)計(jì)、研發(fā)和部署。這一治理框架難以應(yīng)對(duì)多智能體復(fù)雜交互帶來的系統(tǒng)風(fēng)險(xiǎn)。第二,這一安全隱患是緊急和動(dòng)態(tài)的。人工智能體的交互是動(dòng)態(tài)的,它可以根據(jù)新的信息或智能體的行為實(shí)時(shí)動(dòng)態(tài)地管理自己的策略。但是現(xiàn)在的人工智能治理規(guī)則大多是靜態(tài)的。即使有一些動(dòng)態(tài)調(diào)整機(jī)制,也常常依賴于預(yù)設(shè)的風(fēng)險(xiǎn)應(yīng)對(duì)策略。隨著時(shí)間的推移,智能體之間的交互帶來的安全風(fēng)險(xiǎn)可能會(huì)迅速演變,這種風(fēng)險(xiǎn)的動(dòng)態(tài)性和治理的緊迫性可能會(huì)超過當(dāng)前人工智能靜態(tài)治理范式的應(yīng)對(duì)范圍。最后,這一安全隱患具有不確定性和非線性。也就是說,即使單個(gè)智能體的行為是安全的,其集體行為仍然可能突出脆弱性。而且這種脆弱性很難在單一智能體的檢測(cè)和評(píng)估中顯現(xiàn)出來。這個(gè)特點(diǎn)也意味著很難直接從單個(gè)智能體的行為中推導(dǎo)出任何損失和傷害。因此,多智能系統(tǒng)的責(zé)任認(rèn)定規(guī)則也將面臨巨大挑戰(zhàn)。
(三)
行動(dòng)端的法律風(fēng)險(xiǎn)與風(fēng)險(xiǎn)控制
類似于人類的行動(dòng)機(jī)制,人工智能體在感知環(huán)境之后需要整合、分析和推理獲得的信息,從而為決策和行動(dòng)做好準(zhǔn)備。在理想狀態(tài)下,人工智能感覺可以通過接收控制器和感知器發(fā)送的動(dòng)作序列來實(shí)現(xiàn)響應(yīng)甚至重塑環(huán)境的能力。就技術(shù)發(fā)展趨勢(shì)而言,具身智能(embodied AI)它將引領(lǐng)人工智能理論的技術(shù)浪潮,成為人工智能體研發(fā)與應(yīng)用的主流范式。所謂身體智能,是指基于物理實(shí)體的感知和行為智能系統(tǒng),通過智能體與環(huán)境的互動(dòng)獲取信息、理解問題、做出決定和行動(dòng),從而產(chǎn)生智能行為和適應(yīng)性。具體智能體被認(rèn)為是虛擬智能和物理世界之間的交流橋梁,也是實(shí)現(xiàn)智能體時(shí)代人機(jī)交互的關(guān)鍵媒介。從人工智能體行動(dòng)端的技術(shù)結(jié)構(gòu)和這一端的技術(shù)發(fā)展趨勢(shì)來看,存在以下法律糾紛:
首先,具身智能體的交互式學(xué)習(xí)方法可能會(huì)導(dǎo)致隱私風(fēng)險(xiǎn)的全方位、侵入性和隱蔽性。由于物理世界硬件成本高、數(shù)據(jù)不足等問題,目前具體智能的研發(fā)仍然依賴于高效構(gòu)建的數(shù)據(jù)集。在真實(shí)的物理環(huán)境中,人工智能體需要引入豐富、全方位的傳感器輸入進(jìn)行觀察、學(xué)習(xí)和行動(dòng)。物理空間不同于虛擬環(huán)境,依靠交互式學(xué)習(xí)方法。該方法依靠人工智能體與用戶的實(shí)時(shí)互動(dòng),通過反饋學(xué)習(xí)和觀察學(xué)習(xí)等方式優(yōu)化能力。這個(gè)過程由于在物理空間中完成,可能會(huì)對(duì)個(gè)人隱私構(gòu)成整體性、侵入性和隱蔽性風(fēng)險(xiǎn)。首先,人工智能體不僅可以收集文本、視覺、音頻等多源數(shù)據(jù),還可以解讀用戶的肢體語言,感知更復(fù)雜的用戶活動(dòng),具有一般的整體環(huán)境信息收集和處理能力。例如,研究表明,配備AR/VR設(shè)備的人工智能體可以獲得腦機(jī)交互中的視覺跟蹤、身體運(yùn)動(dòng)捕捉甚至腦波信號(hào)等信息。而且這些隱私風(fēng)險(xiǎn)在人機(jī)交互中遠(yuǎn)遠(yuǎn)超過了當(dāng)前個(gè)人信息保護(hù)系統(tǒng)的射程。其次,未經(jīng)用戶授權(quán),具體智能身體可能超過最小的必要標(biāo)準(zhǔn)和知情同意原則,繼續(xù)秘密監(jiān)控、收集和非法共享個(gè)人信息。例如,智能家居助手在執(zhí)行日常任務(wù)后,可以秘密記錄家庭成員的對(duì)話,拍攝用戶的私生活。一旦存在安全漏洞,可能會(huì)導(dǎo)致巨大的隱私風(fēng)險(xiǎn)和數(shù)據(jù)安全風(fēng)險(xiǎn)。一項(xiàng)關(guān)于客戶物聯(lián)網(wǎng)設(shè)備隱私風(fēng)險(xiǎn)的研究表明,81種常見的智能家居設(shè)備包括72種與原廠商以外的第三方共享數(shù)據(jù)的行為。共享的數(shù)據(jù)范圍遠(yuǎn)遠(yuǎn)超過物理設(shè)備的相關(guān)信息,包括IP地址、設(shè)備規(guī)格、技術(shù)設(shè)備、用戶使用習(xí)慣和用戶偏好等。由于具體智能配備了各種感知環(huán)境的傳感器和執(zhí)行操作的執(zhí)行器,因此可以使用物聯(lián)網(wǎng)設(shè)備進(jìn)行網(wǎng)絡(luò)通信,從而獲得更強(qiáng)的數(shù)據(jù)獲取能力和更廣泛的數(shù)據(jù)共享能力。隨之而來的是,用戶的隱私暴露風(fēng)險(xiǎn)將呈指數(shù)級(jí)增長。此外,由于各大運(yùn)營商對(duì)信息共享具有巨大的潛在經(jīng)濟(jì)效益,在智能布局過程中進(jìn)一步加劇了隱私保護(hù)的復(fù)雜性和挑戰(zhàn)性。
其次,人工智能體嵌入式和中介化的部署方式將對(duì)人類的主體性產(chǎn)生全面的腐蝕。當(dāng)前,人工智能理論的發(fā)展堅(jiān)持“實(shí)踐中的人工智能體”(Agent in Practice)這個(gè)設(shè)計(jì)原則。在這一原則的指導(dǎo)下,人工智能論的布局展現(xiàn)了三種范式:?jiǎn)未?、多代理和人機(jī)交互。實(shí)現(xiàn)這些范式都涉及到不同層次的人機(jī)互動(dòng)挑戰(zhàn)。但是隨著人工智能體自主性的不斷提高,人類在決策環(huán)路中會(huì)逐漸被邊緣化。人的社會(huì)交往空間也將不斷延伸。人工智能體作為人類交流的新“伙伴”,即將迎來“機(jī)器人時(shí)刻”。它不僅會(huì)引發(fā)顧客依賴、顧客沉迷等問題,而且人類作為獨(dú)立決策者和獨(dú)立行動(dòng)者的能力和地位也會(huì)不斷受到挑戰(zhàn)。第一,人工智能體驗(yàn)逐漸具備計(jì)算情緒的能力,在擴(kuò)展嵌入式布局的過程中可能會(huì)導(dǎo)致情緒操縱的風(fēng)險(xiǎn)。就像人類在社會(huì)化過程中逐漸形成自己的特質(zhì)一樣,人工智能體也會(huì)表現(xiàn)出“人類智能”,即通過與群體和環(huán)境的互動(dòng),逐漸塑造自己的認(rèn)知和個(gè)性。在實(shí)踐中,不僅PI已經(jīng)出現(xiàn),、Character AI、Replica、代表性的伴侶類智能體,如Glow,更具立體感,能提供更高情感價(jià)值的伴侶類智能體,也具有廣闊的市場(chǎng)前景。情感和情感是人類最基本的經(jīng)驗(yàn)之一。但是,當(dāng)人工智能體充當(dāng)人類的助手、朋友和伙伴時(shí),在實(shí)踐中也不乏回應(yīng)、引導(dǎo)甚至控制人類情緒和情緒的案例。相關(guān)研究表明,基于大模型的人工智能體不僅可以在很多方面表現(xiàn)出類似人類的慎重考慮和智商水平,而且具有識(shí)別、理解、回應(yīng)甚至干擾人類情緒的情感智能,這將極大地導(dǎo)致情緒控制的風(fēng)險(xiǎn)。例如,新版本的微軟必應(yīng)搜索引擎包含了代碼為Sydney的聊天機(jī)器人。在與用戶的互動(dòng)過程中,機(jī)器人出現(xiàn)了影響用戶情緒的導(dǎo)出。有時(shí)候,這些導(dǎo)出是消極的,甚至是可恥的,可操縱的。第二,人工智能體被設(shè)計(jì)成人類與世界互動(dòng)的中介機(jī)構(gòu),這將極大地腐蝕人類的主體地位,增加技術(shù)叛逆的風(fēng)險(xiǎn)。正如圖靈獎(jiǎng)獲得者楊立昆所指出的那樣,在未來,“人工智能將成為每個(gè)人與數(shù)字世界和知識(shí)世界的互動(dòng)的中介”。也就是說,人工智能體在主導(dǎo)信息、知識(shí)和環(huán)境的同時(shí),也獲得了越來越多的自主權(quán)。相比之下,人類的信息控制能力、自主決策能力和意志自決能力都會(huì)受到結(jié)構(gòu)性的挑戰(zhàn),面臨著從物理世界的主人變成人工智能體的風(fēng)險(xiǎn)。面對(duì)人工智能帶來的“非常推動(dòng)”的技術(shù)控制風(fēng)險(xiǎn),由于其難以量化、察覺和驗(yàn)證,目前法律救濟(jì)模式已經(jīng)變得困難,可能會(huì)在社會(huì)層面擴(kuò)散到系統(tǒng)化的“技術(shù)障礙”。
三是人工智能論布局具有高度定制化的特點(diǎn),可能會(huì)遇到人工智能對(duì)齊的挑戰(zhàn)。人工智能對(duì)齊(AI Alignment)這是一個(gè)保證人工智能系統(tǒng)行為符合人類意圖和價(jià)值觀的過程,被譽(yù)為“安全打開潘多拉魔盒”的金鑰匙。在人工智能對(duì)齊訓(xùn)練過程中,對(duì)齊的行為規(guī)范和思想需要根據(jù)布局情況和領(lǐng)域來確定。例如,自動(dòng)駕駛場(chǎng)景的行為規(guī)范與醫(yī)療衛(wèi)生場(chǎng)景的社會(huì)和道德規(guī)范有很大不同。所以,開發(fā)者在識(shí)別和確定對(duì)齊規(guī)范時(shí),面臨著多樣性與個(gè)性的考驗(yàn)。有評(píng)論指出,電氣電子工程師協(xié)會(huì)發(fā)布的第一版人工智能倫理對(duì)齊引導(dǎo)的文化取向是“西式”,缺乏對(duì)多元社區(qū)標(biāo)準(zhǔn)和價(jià)值觀的考慮。對(duì)于高度定制的人工智能體智能系統(tǒng)來說,在設(shè)計(jì)中會(huì)面臨更多的對(duì)齊挑戰(zhàn),即如何在不違反普遍倫理規(guī)范和社會(huì)價(jià)值觀的情況下,在保證其執(zhí)行任務(wù)的同時(shí),體現(xiàn)客戶個(gè)人的獨(dú)特需求和偏好?隨著人工智能理論的大規(guī)模商業(yè)化,個(gè)人價(jià)值觀與社會(huì)價(jià)值觀之間的平衡將面臨更高的挑戰(zhàn)。另一方面,人類價(jià)值觀往往具有隱性和情境化的特點(diǎn)。AI體需要更復(fù)雜的語義理解和情景分析能力。另外,人類的價(jià)值觀和倫理標(biāo)準(zhǔn)也會(huì)發(fā)生動(dòng)態(tài)的變化。如何從治理和監(jiān)督的角度推動(dòng)開發(fā)者開發(fā)具有動(dòng)態(tài)識(shí)別和價(jià)值敏感設(shè)計(jì)功能的人工智能體,具有整合多樣性和動(dòng)態(tài)性的倫理和價(jià)值觀的能力,甚至具有在價(jià)值觀和倫理規(guī)范之間做出準(zhǔn)確選擇的能力,在技術(shù)和治理上也將面臨巨大挑戰(zhàn)。
第三,“代理即服務(wù)”:模塊化治理人工智能論
人工智能論的治理與傳統(tǒng)的人工智能相比,面臨著一系列的挑戰(zhàn)。第一,人工智能體結(jié)構(gòu)復(fù)雜,端層嵌套,每一端都有可能增加傳統(tǒng)技術(shù)風(fēng)險(xiǎn),并衍生出新的法律風(fēng)險(xiǎn)。當(dāng)前法律治理方案很難僅僅通過局部、戰(zhàn)略性的調(diào)整來有效應(yīng)對(duì)。隨著人工智能理論的出現(xiàn),人工智能產(chǎn)業(yè)鏈結(jié)構(gòu)發(fā)生了本質(zhì)的變化。以“代理即服務(wù)”為基礎(chǔ)(Agent as a Service,AaaS)產(chǎn)業(yè)鏈結(jié)構(gòu)應(yīng)時(shí)而生。在這種產(chǎn)業(yè)鏈模式下,人工智能理論的開發(fā)、培訓(xùn)、部署、運(yùn)營和服務(wù)被解耦和專業(yè)分工,形成了復(fù)雜的分層結(jié)構(gòu)。每個(gè)層次都有不同的參與者、利益相關(guān)者和潛在的風(fēng)險(xiǎn)因素。所以,對(duì)應(yīng)于人工智能體的“模塊”(Agent Modules)產(chǎn)業(yè)鏈的特點(diǎn),需要一種新的治理范式,可以覆蓋整個(gè)產(chǎn)業(yè)鏈和各個(gè)層次。基于此,本文提出了針對(duì)人工智能體產(chǎn)業(yè)鏈特征的模塊化治理范式。該模式以基礎(chǔ)模型和基礎(chǔ)代理為出發(fā)點(diǎn),從數(shù)據(jù)模塊、算法模塊、模型架構(gòu)模塊等關(guān)鍵層次和部件出發(fā),通過模塊化解構(gòu)設(shè)計(jì)相應(yīng)的治理工具和完善,形成獨(dú)立的治理模塊。在部署階段,可以根據(jù)具體場(chǎng)景的特點(diǎn)靈活選擇,協(xié)同組合不同的治理模塊,在此基礎(chǔ)上構(gòu)建匹配的分類分層治理體系。
第二,在“代理即服務(wù)”的產(chǎn)業(yè)模式下,多代理布署也將成為主流趨勢(shì)。它不僅促進(jìn)了深層次的人機(jī)交互,而且在模塊化、組合化的智能體服務(wù)布局中形成了更為復(fù)雜的主體參與網(wǎng)絡(luò)。這一數(shù)據(jù)共享的產(chǎn)業(yè)鏈特征還需要治理機(jī)制,能夠跨越不同的開發(fā)者和參與者,突破單項(xiàng)治理,實(shí)現(xiàn)系統(tǒng)級(jí)的協(xié)調(diào)與交互。因此,人工智能體模塊化治理的發(fā)揮也要面向智能體的生態(tài)特征,結(jié)合動(dòng)態(tài)、參與、透明、合作適應(yīng)的互動(dòng)治理。
最終,我們必須深刻認(rèn)識(shí)到,人工智能體仍處于R&D和工業(yè)化的初始階段,治理干預(yù)的節(jié)點(diǎn)、節(jié)奏和層面將對(duì)技術(shù)創(chuàng)新和產(chǎn)業(yè)發(fā)展產(chǎn)生重大影響。由于底座模型性能仍有許多不足之處,其技術(shù)路線尚未迎來固化時(shí)刻,未來將出現(xiàn)系統(tǒng)架構(gòu)的創(chuàng)新與升級(jí)。從積極的角度來看,技術(shù)的發(fā)展也可能促使現(xiàn)階段預(yù)期的法律風(fēng)險(xiǎn)得到解決。因此,人工智能理論的治理既不能急于求成,也不能放任不管。相反,我們應(yīng)該抓住人工智能理論的核心和重要環(huán)節(jié),進(jìn)行前瞻性和漸進(jìn)性的規(guī)劃。因此,人工智能理論的模塊化治理也要針對(duì)人工智能體產(chǎn)業(yè)的發(fā)展?fàn)顩r,結(jié)合精確的治理機(jī)制。一方面積極探索建立人工智能體分類分級(jí)的評(píng)價(jià)標(biāo)準(zhǔn),另一方面深入探索建立智能控制工具體系,消除風(fēng)險(xiǎn)動(dòng)態(tài)與監(jiān)管靜態(tài)之間的張力。
總的來說,模塊化治理為人工智能體產(chǎn)業(yè)鏈的關(guān)鍵層面提供了基本的治理理念。精確治理因情況而異,對(duì)模塊化治理形成了深度擴(kuò)展。互動(dòng)治理通過模塊化治理和精確分層治理,完成了治理方案的動(dòng)態(tài)優(yōu)化。三者密切相關(guān)。在這種協(xié)同體系下,有望更全面地覆蓋人工智能理論的治理需求,精確引導(dǎo),與時(shí)俱進(jìn)。
(一)
構(gòu)建模塊化治理,從基礎(chǔ)模型到基礎(chǔ)代理。
目前,大型模型仍處于工業(yè)化和商業(yè)化發(fā)展的初始階段,底座模型的性能仍有許多不足,技術(shù)界也提出了各種應(yīng)對(duì)當(dāng)前技術(shù)瓶頸的措施。對(duì)人工智能體而言,大型模型是所有技術(shù)路線中最有利于實(shí)現(xiàn)通用任務(wù)能力的基礎(chǔ)設(shè)施和關(guān)鍵部件。有關(guān)研究表明,基礎(chǔ)模型對(duì)人工智能理論的感知、運(yùn)動(dòng)、規(guī)劃和控制將帶來系統(tǒng)的提高。然而,在各種百花齊放的大型模型中,它們是通過大量數(shù)據(jù)訓(xùn)練而成的,具有通用的數(shù)據(jù)表達(dá)能力、知識(shí)理解能力和推理能力。通過前后學(xué)習(xí)、微調(diào)甚至零樣本,可以輕松轉(zhuǎn)移多種場(chǎng)景,快速適應(yīng)新環(huán)境。(Foundation Model)這是實(shí)現(xiàn)通用人工智能理論的關(guān)鍵希望。因此,面對(duì)復(fù)雜而無限的人工智能,嘗試構(gòu)建一個(gè)全面的治理框架可能是不現(xiàn)實(shí)的。相反,牢牢把握基礎(chǔ)模型的要素,逐步探索模塊化治理路徑,從基礎(chǔ)模型到基礎(chǔ)代理,將成為未來的發(fā)展方向。
然而,在探索和構(gòu)建這一治理方案的過程中,有必要重點(diǎn)解決以下兩個(gè)問題:首先,準(zhǔn)確識(shí)別尖端基礎(chǔ)模型,具有通用性能,可能帶來系統(tǒng)風(fēng)險(xiǎn),并相應(yīng)構(gòu)建差異化控制矩陣?;诓煌挠?xùn)練目的和模型性能,在基礎(chǔ)模型內(nèi)部,各種模型的治理風(fēng)險(xiǎn)各不相同。歐盟立法者在人工智能法案中,通過模型訓(xùn)練期間的算率使用、模型獲得新技能的效率、跨任務(wù)多功能性和特性的實(shí)用性、模型泛化能力和特定的評(píng)估標(biāo)準(zhǔn),為技術(shù)風(fēng)險(xiǎn)提供了一個(gè)實(shí)時(shí)可控的治理框架,為技術(shù)發(fā)展提供了充足的制度空間和實(shí)時(shí)可控的治理框架。將基礎(chǔ)模型分為三類:(1)基礎(chǔ)模型,旨在具有實(shí)用性和技術(shù)發(fā)展前沿的通用目的;(2)旨在具有實(shí)用性但非技術(shù)前沿的基礎(chǔ)模型;而(3)并不是基于能力的實(shí)用性而設(shè)計(jì)的,而是通過對(duì)通用目的的基礎(chǔ)模型進(jìn)行微調(diào),為特定范圍內(nèi)一鍵生成內(nèi)容的生成工具應(yīng)用提供特定的任務(wù)數(shù)據(jù)來構(gòu)建的。通過對(duì)基礎(chǔ)模型進(jìn)行分層,實(shí)施差異化的預(yù)審和監(jiān)督策略,從而實(shí)現(xiàn)技術(shù)創(chuàng)新與安全發(fā)展的平衡。在分層基礎(chǔ)模型的基礎(chǔ)上,實(shí)施差異化的事前審查和監(jiān)督策略,從而在技術(shù)創(chuàng)新和安全發(fā)展之間取得平衡。這種處理方案特別適用于技術(shù)快速發(fā)展但尚未成型的技術(shù)爆發(fā)周期。就人工智能體而言,由于該行業(yè)的最終發(fā)展方向是通用人工智能體,因此明確界定了具有通用目的、技術(shù)前沿、泛化性能強(qiáng)、將作為通用智能體核心組件的基本模型,將成為構(gòu)建監(jiān)管框架的第一個(gè)關(guān)鍵點(diǎn)。目前,研究將人工智能領(lǐng)域使用的基本模型分為兩類:機(jī)器人基本模型和直接在機(jī)器人數(shù)據(jù)上練習(xí)的基本模型。前者與現(xiàn)有的大型自然語言模型和大型語言視覺模型高度重疊,主要解決了如何在智能體領(lǐng)域?qū)F(xiàn)有的基礎(chǔ)模型應(yīng)用于零樣本的問題。所以,可以在現(xiàn)有監(jiān)管框架的基礎(chǔ)上,對(duì)通用尖端基礎(chǔ)模型進(jìn)行推廣和優(yōu)化,探索治理方案。但是更具挑戰(zhàn)性的是對(duì)“機(jī)器人基本模型”的治理。“機(jī)器人基本模型”是指通過練習(xí)真實(shí)的人工智能體的狀態(tài)和動(dòng)作產(chǎn)生的數(shù)據(jù)集來緩解多個(gè)任務(wù)模型。對(duì)于這類模型,由于現(xiàn)有的技術(shù)路線仍在探索和發(fā)展中,需要高度重視,根據(jù)技術(shù)的階段性進(jìn)展,及時(shí)探索制定分類、分類、風(fēng)險(xiǎn)評(píng)估的指標(biāo)體系,為建立治理框架積累重要依據(jù)。
第二,建立一個(gè)適合人工智能體基本模型技術(shù)機(jī)制的治理工具模塊體系。無論是大模型還是人工智能,它仍然處于技術(shù)快速發(fā)展和商業(yè)化的探索期,其技術(shù)形態(tài)和應(yīng)用領(lǐng)域可能是不可預(yù)測(cè)的。所以,治理框架的構(gòu)建應(yīng)該具備靜制動(dòng)的能力。因此,更需要圍繞基礎(chǔ)智能體的技術(shù)邏輯發(fā)展機(jī)制構(gòu)建與之相適應(yīng)的工具體系,從而全面提高治理體系的韌性。對(duì)人工智能理論的訓(xùn)練而言,需要對(duì)數(shù)據(jù)、算法、模型架構(gòu)等關(guān)鍵部件進(jìn)行探索和構(gòu)建治理工具模塊體系。一方面,各關(guān)鍵組件的處理工具模塊可以保證大模型處理與人工智能體處理甚至面向未來的通用人工智能處理框架之間的相互操作性和一致性,防止不同維度處理活動(dòng)的重疊和沖突。另一方面,具體而微觀的處理工具模塊具有靈活性和動(dòng)態(tài)性,能夠及時(shí)響應(yīng)復(fù)雜技術(shù)體系和應(yīng)用領(lǐng)域的多樣化處理需求,突出協(xié)同性和包容性。通過將快速變化、復(fù)雜蓮藕甚至矛盾競(jìng)爭(zhēng)的處理挑戰(zhàn)隔離到單個(gè)模塊中,可以促進(jìn)多方共識(shí)的凝聚,從而建立可執(zhí)行的合作關(guān)系和行動(dòng)框架,實(shí)現(xiàn)治理上的“存異求同”。所以,“模塊化治理”方案提供了一種可操作的分解方法。通過將復(fù)雜的智能體治理目標(biāo)拆解成相對(duì)獨(dú)立但相關(guān)的模塊模塊,整體治理框架和治理體系的構(gòu)建可以通過逐步破解的方式逐步推進(jìn)。具體而言,“元”模塊需要從控制端、感知端和行動(dòng)端的技術(shù)機(jī)制出發(fā),從數(shù)據(jù)、算法、模型和平臺(tái)的維度進(jìn)行拆解和處理。在這些模塊模塊內(nèi)部,根據(jù)風(fēng)險(xiǎn)等級(jí)、適用場(chǎng)景、模型類別等因素,將統(tǒng)一框架靈活轉(zhuǎn)化為適用于特定領(lǐng)域、特定類別和特定人工智能理論的具體規(guī)范框架,細(xì)化為具體的評(píng)估指標(biāo)、評(píng)估事項(xiàng)和行動(dòng)主體。
(二)
為特定高風(fēng)險(xiǎn)場(chǎng)景構(gòu)建精確的治理
雖然人工智能體可能存在的技術(shù)隱患和治理挑戰(zhàn)已經(jīng)從控制端、感知端和行動(dòng)端進(jìn)行了詳細(xì)的分析,但人工智能理論的發(fā)展無疑極大地促進(jìn)了技術(shù)自動(dòng)化和智能化的進(jìn)程,也將賦能各行各業(yè),成為產(chǎn)業(yè)變革的催化劑和推動(dòng)者。目前,人工智能理論的商業(yè)化正處于從零到一的關(guān)鍵投資期。探索和構(gòu)建準(zhǔn)確高效的治理框架,確保技術(shù)的發(fā)展和應(yīng)用始終處于可控合法的軌道上,始終是一個(gè)重要的治理問題。對(duì)于仍在快速發(fā)展且尚未成型的技術(shù),精準(zhǔn)輕量化的治理可能比采用全面的治理路徑更可行,以符合比例的方式滿足特定場(chǎng)景和技術(shù)特點(diǎn)。結(jié)合“代理即服務(wù)”的產(chǎn)業(yè)鏈模式和現(xiàn)階段人工智能體技術(shù)泛化能力仍有限的客觀現(xiàn)狀,準(zhǔn)確識(shí)別現(xiàn)階段高風(fēng)險(xiǎn)部署場(chǎng)景,實(shí)現(xiàn)精準(zhǔn)化管理的目的性和多樣化有利于管理效率的實(shí)現(xiàn)。人工智能體可以分為三類:制造智能體、服務(wù)智能體和特種智能體。在部署路線上,它將首先應(yīng)用于工業(yè)和制造業(yè),然后應(yīng)用于服務(wù)業(yè)和家居場(chǎng)景,最終發(fā)展成為具有通用性能的人工智能體。在這種部署模式下,不同的應(yīng)用場(chǎng)景可能面臨不同的風(fēng)險(xiǎn)等級(jí)和風(fēng)險(xiǎn)取向。例如,制造業(yè)的人工智能體需要更高的穩(wěn)定性和可靠性,但在服務(wù)場(chǎng)景中部署的智能體需要功能多樣性、高度自主性和適應(yīng)性的能力。因此,治理的重點(diǎn)應(yīng)該是與人類互動(dòng)過程中的安全性和價(jià)值對(duì)齊。尤其是情感伴侶智能體,由于其服務(wù)模式可能觸及大量個(gè)人敏感信息,客戶面臨個(gè)人敏感信息泄露的風(fēng)險(xiǎn),應(yīng)重點(diǎn)控制其隱私保護(hù)。因此,在這個(gè)階段,應(yīng)該集中監(jiān)管力量率先應(yīng)對(duì)“高風(fēng)險(xiǎn)”場(chǎng)景,在進(jìn)行精準(zhǔn)治理的同時(shí),為探索建立一個(gè)全面、一體化的治理框架提供前期準(zhǔn)備。
歐盟人工智能法案以風(fēng)險(xiǎn)分類的方式探索了人工智能新技術(shù)和新應(yīng)用的精確治理。立法者率先引導(dǎo)人工智能系統(tǒng)可能會(huì)對(duì)人類健康和安全產(chǎn)生重大影響,這兩條主線可能會(huì)對(duì)個(gè)人的基本權(quán)利產(chǎn)生重大影響。需要重點(diǎn)監(jiān)管的“高風(fēng)險(xiǎn)場(chǎng)景”圍繞設(shè)備運(yùn)行領(lǐng)域、系統(tǒng)使用目的、系統(tǒng)性能、系統(tǒng)用戶和受系統(tǒng)影響的主體五個(gè)維度進(jìn)行識(shí)別。人工智能法案第六條規(guī)定了更明確的高風(fēng)險(xiǎn)識(shí)別因素:危害因素,即歧視、隱私泄露、物理損害等風(fēng)險(xiǎn)類型;暴露因素,即風(fēng)險(xiǎn)的強(qiáng)度、概率、持續(xù)時(shí)間,以及是否對(duì)健康、安全和個(gè)人基本權(quán)利產(chǎn)生重要影響;脆弱因素,關(guān)注潛在風(fēng)險(xiǎn)受害者的數(shù)量和特殊性以及風(fēng)險(xiǎn)的可控性和后續(xù)救助的有效性。對(duì)于人工智能理論的精準(zhǔn)治理,我們可以在一定程度上借鑒歐盟人工智能法案中分類分級(jí)的治理思路,在遵循技術(shù)特點(diǎn)和部署規(guī)律的基礎(chǔ)上,探索和構(gòu)建精準(zhǔn)動(dòng)態(tài)的治理方案。
第一,應(yīng)探索建立人工智能體分類分級(jí)的評(píng)定標(biāo)準(zhǔn)。隨著技術(shù)的發(fā)展,專業(yè)技術(shù)標(biāo)準(zhǔn)通常會(huì)突出更好的治理效率。雖然歐盟人工智能法案對(duì)風(fēng)險(xiǎn)的分類思路是可取的,但由于其規(guī)則的抽象性而受到批評(píng)。所以,在細(xì)化評(píng)價(jià)因素的基礎(chǔ)上,人工智能論的評(píng)價(jià)體系應(yīng)該盡可能地提高規(guī)則粒度。例如,可以從輸出內(nèi)容的安全性、準(zhǔn)確性和可靠性來評(píng)估風(fēng)險(xiǎn)強(qiáng)度和持續(xù)時(shí)間,從多模態(tài)訓(xùn)練數(shù)據(jù)的源頭、內(nèi)容、標(biāo)注標(biāo)準(zhǔn)評(píng)估歧視、機(jī)器幻覺等風(fēng)險(xiǎn)產(chǎn)生的概率來判斷人工智能論的風(fēng)險(xiǎn)等級(jí),從具體用途評(píng)估可能受其影響的主體的人口基數(shù)、抗風(fēng)險(xiǎn)能力、糾錯(cuò)能力、相關(guān)合規(guī)措施的完整性等維度來評(píng)估風(fēng)險(xiǎn)后的救助難度。并且提出有針對(duì)性的治理措施。
第二,應(yīng)探索建立智能控制工具,消除風(fēng)險(xiǎn)動(dòng)態(tài)與監(jiān)管靜態(tài)之間的張力。歐盟立法者已經(jīng)意識(shí)到人工智能風(fēng)險(xiǎn)的動(dòng)態(tài)測(cè)試。因此,為了保證治理的及時(shí)性,人工智能法案第七條規(guī)定了修訂高風(fēng)險(xiǎn)人工智能識(shí)別和識(shí)別標(biāo)準(zhǔn)的程序。對(duì)于可能即時(shí)出現(xiàn)、動(dòng)態(tài)變化的人工智能體風(fēng)險(xiǎn)治理目標(biāo),盡快開發(fā)一套控制反饋框架和智能治理工具體系是現(xiàn)實(shí)的迫切需求。例如,在大規(guī)模建立人工智能監(jiān)管框架之前,新加坡首先與科技企業(yè)合作開發(fā)了AIVerify實(shí)驗(yàn)控制工具,它可以提供人工智能系統(tǒng)的測(cè)試框架、工具包和評(píng)估分析報(bào)告,通過技術(shù)賦能控制,增加企業(yè)與監(jiān)管機(jī)構(gòu)之間的互信與合作。因此,為了提高監(jiān)管的敏捷性和有效性,人工智能理論的精準(zhǔn)管理必須完善基礎(chǔ)設(shè)施的控制,賦能監(jiān)管部門持續(xù)監(jiān)控、即時(shí)評(píng)估和實(shí)時(shí)反饋高風(fēng)險(xiǎn)應(yīng)用的能力。
(三)
構(gòu)建面向智能體生態(tài)的互動(dòng)治理
人工智能體作為人工智能技術(shù)發(fā)展的第四階段,迅速將人類社會(huì)推向了一個(gè)動(dòng)靜結(jié)合、人機(jī)深度交互的智能體社會(huì),開啟了一個(gè)全新的智能時(shí)代。智能體社會(huì)將集中展現(xiàn)深度交互、高度互聯(lián)、動(dòng)態(tài)適應(yīng)三大特征。首先,人工智能系統(tǒng)在智能體社會(huì)中將呈現(xiàn)普遍而深入的交互。另一方面,人工智能體需要人類的反饋來實(shí)現(xiàn)動(dòng)態(tài)學(xué)習(xí)。另外,人類仍然需要通過規(guī)范和技術(shù)對(duì)人工智能理論的行動(dòng)和決策進(jìn)行深入的介入,以確保人類處于決策回路之中。其次,智能體社會(huì)將呈現(xiàn)萬物互聯(lián)的趨勢(shì)。如前所述,單個(gè)人工智能體可能會(huì)遇到能力和行動(dòng)的限制,因此多代理部署方式將成為主流。所以,智能體社會(huì)不僅有深層次的人機(jī)交互,而且會(huì)突出萬物互聯(lián)的趨勢(shì)。在引人注目的“智能體虛擬小鎮(zhèn)”實(shí)驗(yàn)中,研究人員發(fā)現(xiàn),建造的25個(gè)人工智能體在虛擬小鎮(zhèn)環(huán)境中表現(xiàn)出類似于人類社會(huì)的社會(huì)行為。在虛擬城鎮(zhèn)中,智能體不僅可以相互分享信息,記住智能體交互的細(xì)節(jié),還可以共同策劃情人節(jié)派對(duì)。可以看出,未來的智能體社會(huì)將呈現(xiàn)出高度智能化和萬物互聯(lián)的趨勢(shì)。三是人工智能體可以借助交互學(xué)習(xí)和自適應(yīng)能力,以自我規(guī)劃和迭代的能力,適應(yīng)甚至重塑不斷變化的環(huán)境。所以,人工智能體社會(huì)也將呈現(xiàn)出動(dòng)態(tài)和不斷延伸的組織特征。隨著這種宏觀變化,人工智能理論的治理也需要探索一種互動(dòng)的治理模式。在人工智能理論的產(chǎn)業(yè)鏈中,至少有許多主體,如大型制造商、人工智能系統(tǒng)制造商、下游端的中小企業(yè)、人工智能系統(tǒng)客戶、技術(shù)社區(qū)和公眾。交互式治理模式需要遵循人工智能體的產(chǎn)業(yè)鏈生態(tài),將各主體全部納入治理鏈。
第一,大模型開發(fā)者作為人工智能理論的“智能引擎”,需要在現(xiàn)有的監(jiān)管框架下履行數(shù)據(jù)、算法、內(nèi)容等一系列合規(guī)義務(wù)。更重要的是,由于人工智能體呈現(xiàn)出多主體協(xié)同布局的趨勢(shì),大模型開發(fā)者應(yīng)積極探索共建共治機(jī)制,以應(yīng)對(duì)多智能體協(xié)同帶來的公共外部風(fēng)險(xiǎn)。另外,鑒于大型開發(fā)者具有全棧發(fā)展的趨勢(shì),它可能與人工智能體的開發(fā)者高度重合。所以,在一定程度上,它還應(yīng)該履行“守門人”的責(zé)任,為中下游主體履行監(jiān)管政策提供必要的幫助。第二,要著力培育技術(shù)社區(qū),探索智能體社會(huì)的“眾包型”治理模式。面臨強(qiáng)大的人工智能體,個(gè)人客戶可能會(huì)受到時(shí)間、能力、知識(shí)和精力的限制,難以與之抗衡。技術(shù)性社區(qū)內(nèi)部的緊密結(jié)合和專業(yè)知識(shí)的加持也有助于在人工智能企業(yè)內(nèi)部建立有效的約束機(jī)制。例如,對(duì)于微軟Copilot 微軟內(nèi)部AI工程主管沙恩·瓊斯在自測(cè)階段發(fā)現(xiàn)這一問題后,立即向微軟報(bào)告了Designer產(chǎn)品產(chǎn)生色情和暴力內(nèi)容的問題。但由于微軟對(duì)改善這一問題的疏忽,他在社交平臺(tái)上發(fā)布了一封公開信,并向美國參議院發(fā)出了一封信,并與美國參議院商業(yè)、科學(xué)、運(yùn)輸委員會(huì)的工作人員見面,以督促這一問題引起關(guān)注,并得到妥善處理。所以,技術(shù)社區(qū)對(duì)人工智能理論的治理將起到十分重要的“吹哨人”作用。最后,對(duì)于智能體社會(huì)的“未來公民”,政府應(yīng)積極培養(yǎng)其數(shù)字文化素養(yǎng),樹立在與智能體互動(dòng)過程中負(fù)責(zé)使用的理念。在人工智能時(shí)代,客戶不再作為個(gè)人而存在。相反,它已經(jīng)成為人工智能時(shí)代的“跨個(gè)人客戶”,通過算法、平臺(tái)和人工智能系統(tǒng)與其他用戶、數(shù)據(jù)和環(huán)境連接和影響。所以,人工智能時(shí)代的治理應(yīng)該超越傳統(tǒng)的以個(gè)人為中心的治理,關(guān)注更廣泛的互聯(lián)依賴生態(tài)關(guān)系。在智能社會(huì),基于法律的治理只能解決有限甚至底線的問題。特別需要多方參與和多層次合作來治理智能體社會(huì)。生成型人工智能改革創(chuàng)新和可靠應(yīng)用是通過多樣化的治理措施支持的。只有真正實(shí)現(xiàn)智能體生態(tài)中的良好互動(dòng),培養(yǎng)向上向好的運(yùn)行生態(tài),才能從更長遠(yuǎn)、更系統(tǒng)的角度應(yīng)對(duì)這種顛覆性的變化。
結(jié)語
人工智能體開啟了人類走向通用人工智能的“新時(shí)代”。它不僅具有巨大的潛力,促進(jìn)產(chǎn)業(yè)創(chuàng)新,建立競(jìng)爭(zhēng)優(yōu)勢(shì),還可能帶來大規(guī)模的社會(huì)生產(chǎn)力釋放和人類生產(chǎn)生活方式的重大變化。人工智能體將帶來一批以智能、泛在為特征的新產(chǎn)業(yè)、新業(yè)態(tài)和新動(dòng)能,推動(dòng)一系列顛覆性的技術(shù)變革。習(xí)總書記在這次重大科技革命與科技革命的交匯時(shí)期,提出了“新質(zhì)量生產(chǎn)力”的重要概念。所謂新質(zhì)量生產(chǎn)力,是指當(dāng)代先進(jìn)的生產(chǎn)力,由技術(shù)革命性突破、生產(chǎn)要素創(chuàng)新配置、產(chǎn)業(yè)深度轉(zhuǎn)型升級(jí)而產(chǎn)生。新生產(chǎn)力代表著科技發(fā)展的趨勢(shì),代表著產(chǎn)業(yè)升級(jí)的重大趨勢(shì),匯聚著人類社會(huì)前進(jìn)的優(yōu)勢(shì)動(dòng)能。在這一輪科技革命浪潮中,人工智能體可以說是新的生產(chǎn)力。作為世界人工智能的主要?jiǎng)?chuàng)造力量,我國需要優(yōu)化新生產(chǎn)力的發(fā)展生態(tài),一方面促進(jìn)其釋放和發(fā)展,另一方面促進(jìn)其在負(fù)責(zé)任創(chuàng)新的軌道上逐步完善,進(jìn)而全面貫徹新的發(fā)展理念,促進(jìn)創(chuàng)新發(fā)展與高水平安全的良性互動(dòng)。
原題:張欣|關(guān)于人工智能理論的模塊化治理
閱讀原文
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請(qǐng)?jiān)谖闹凶⒚鱽碓醇白髡呙帧?/p>
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請(qǐng)及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com