強(qiáng)大的人工智能可能帶來的法律風(fēng)險(xiǎn)和應(yīng)對(duì)策略
原創(chuàng) 陳宇超 民主和法制時(shí)報(bào)
核心提示:人工智能的快速發(fā)展也意味著存在更多已知和未知的風(fēng)險(xiǎn),這對(duì)法律的回應(yīng)和規(guī)范提出了挑戰(zhàn)。企業(yè)收集數(shù)據(jù)的技術(shù)應(yīng)用和數(shù)據(jù)過濾保護(hù)機(jī)制應(yīng)當(dāng)在法律層面進(jìn)行更詳細(xì)的規(guī)定和嚴(yán)格的監(jiān)管,制度體系應(yīng)當(dāng)?shù)玫酵晟啤?/p>

武丹/繪圖
作家|陳宇超
責(zé)任編輯|薛應(yīng)軍
文本共有2960個(gè)單詞,估計(jì)閱讀需要9分鐘。▼
五月十四日凌晨,美國(guó)人工智能OpenAI在官網(wǎng)發(fā)布了旗艦生成人工智能模型“GPT-“4o”,其中“o”代表“omni"(全能),是指該模型處理文本、語(yǔ)音和視頻的能力。與2022年11月推出的人工智能聊天機(jī)器人ChatGPT相比,它具有與人類相似的對(duì)話能力,具有幽默感,可現(xiàn)場(chǎng)自拍,并提供描述,包括你的著裝,甚至伴隨著現(xiàn)實(shí)世界中絕大多數(shù)的傾向,如中斷、理解語(yǔ)氣等。另外,除了更快的響應(yīng)速度外,GPT-4o似乎很容易捕捉到情緒,并根據(jù)用戶的要求調(diào)整語(yǔ)氣和風(fēng)格,甚至在回應(yīng)中加入音效、笑聲和歌聲。一些媒體認(rèn)為,這預(yù)示著強(qiáng)大的人工智能-生成型人工智能領(lǐng)域再次迎來了歷史性的時(shí)刻,這引起了人們的高度關(guān)注和討論。
近年來,隨著人工智能技術(shù)的不斷發(fā)展,它可以為人類社會(huì)提供極大的便利。以ChatGPT為代表的強(qiáng)大人工智能,不僅可以實(shí)現(xiàn)傳統(tǒng)人工智能的功能,還可以在自學(xué)、寫論文、編碼、擬定法律意見、智能診療等方面得到廣泛應(yīng)用,對(duì)社會(huì)發(fā)展變化產(chǎn)生了深遠(yuǎn)影響。然而,機(jī)遇總是與挑戰(zhàn)并存。人工智能就像一把雙刃劍。它的快速發(fā)展和升級(jí)必然意味著更多已知和未知的風(fēng)險(xiǎn),如隱私數(shù)據(jù)隱私和“算法歧視”、在知識(shí)產(chǎn)權(quán)等方面的法律風(fēng)險(xiǎn)等方面,這對(duì)法律的回應(yīng)和規(guī)范提出了挑戰(zhàn)。
強(qiáng)大的人工智能帶來的風(fēng)險(xiǎn)和挑戰(zhàn)
與傳統(tǒng)人工智能相比,強(qiáng)大的人工智能帶來的挑戰(zhàn)和風(fēng)險(xiǎn)可能更加明顯。本文主要從數(shù)據(jù)隱私、“算法歧視”和知識(shí)產(chǎn)權(quán)三個(gè)方面分析生成人工智能可能帶來的風(fēng)險(xiǎn)和爭(zhēng)議。
第一,數(shù)據(jù)安全問題。與傳統(tǒng)人工智能相比,ChatGPT等生成式人工智能具有很強(qiáng)的數(shù)據(jù)采集和抓取能力。除了用戶提供的數(shù)據(jù),網(wǎng)絡(luò)平臺(tái)本身的大量?jī)?nèi)容也可能被收集和讀取用于內(nèi)容生成,從而可能導(dǎo)致數(shù)據(jù)侵權(quán)、泄露和隱私侵犯。生成式人工智能的升級(jí)迭代,如ChatGPT,需要大量的數(shù)據(jù)支持,這些信息通常來自公司購(gòu)買或自行收集和抓取。這兩種方法都存在數(shù)據(jù)侵權(quán)和隱私泄露的風(fēng)險(xiǎn),公司購(gòu)買的第三方數(shù)據(jù)可能存在權(quán)屬不明確的問題;由于生成型人工智能客戶的受眾非常廣泛,用戶包括政務(wù)處理者、公司員工和個(gè)人用戶,他們收集的數(shù)據(jù)和信息非常龐大。在這些因素中,儲(chǔ)備的數(shù)據(jù)一旦因不明攻擊等因素被泄露,就會(huì)危害國(guó)家安全,泄露商業(yè)秘密,侵犯?jìng)€(gè)人隱私等。此外,在數(shù)據(jù)采集過程中,人工智能本身可能會(huì)出現(xiàn)收集不當(dāng)?shù)那闆r,比如非法收集用戶未經(jīng)授權(quán)的數(shù)據(jù),突破客戶知情同意的原則,自行抓取數(shù)據(jù)。
第二,“算法歧視”可能發(fā)生在ChatGPT等生成式人工智能中。生成人工智能通?;诤A繑?shù)據(jù)和強(qiáng)大的模型計(jì)算率生成文本,其內(nèi)容由R&D人員和用戶提供的數(shù)據(jù)和模型進(jìn)行多次訓(xùn)練,使其“算法歧視”更加隱蔽。目前,生成人工智能的培訓(xùn)數(shù)據(jù)和詞庫(kù)大多來自歐美國(guó)家,與中國(guó)的價(jià)值觀不一致。因此,價(jià)值歧視的風(fēng)險(xiǎn)可能隱藏在生成內(nèi)容中,例如,它們主要側(cè)重于西方國(guó)家的價(jià)值觀。與此同時(shí),生成型人工智能的用戶很少有社會(huì)弱勢(shì)群體客戶,如殘疾人、不會(huì)使用電子產(chǎn)品的老年人等。所以,在收集數(shù)據(jù)和導(dǎo)出數(shù)據(jù)時(shí),生成式人工智能可能會(huì)因?yàn)椤皵?shù)據(jù)鴻溝”的出現(xiàn)而對(duì)這個(gè)群體的權(quán)力產(chǎn)生歧視。
最后,強(qiáng)大的人工智能的快速發(fā)展給傳統(tǒng)的知識(shí)產(chǎn)權(quán)保護(hù)體系帶來了巨大的挑戰(zhàn)。與簡(jiǎn)單完成人類指令的傳統(tǒng)“弱人工智能”不同,基于數(shù)據(jù)讀取和模型訓(xùn)練的生成型人工智能具有抽象的思維能力和解決問題的能力。從外觀上看,它似乎具有人類自我“創(chuàng)造”的能力,其產(chǎn)生的內(nèi)容應(yīng)該屬于用戶還是人工智能本身,值得思考。此外,生成式人工智能的輸出內(nèi)容是基于大量的數(shù)據(jù)收集和抓取,其中未經(jīng)授權(quán)的內(nèi)容可能會(huì)被人工智能讀取收集,用于文本內(nèi)容的輸出,不會(huì)標(biāo)注出處。這是否損害了原數(shù)據(jù)作者的知識(shí)產(chǎn)權(quán)?現(xiàn)行法律法規(guī)應(yīng)該怎樣規(guī)定這一做法,并制定保障措施?對(duì)于傳統(tǒng)的知識(shí)產(chǎn)權(quán)保護(hù)體系來說,這些問題都是一個(gè)挑戰(zhàn),需要現(xiàn)行的法律和完善。
強(qiáng)大的人工智能來了,法律怎么處理?
世界各地大多表現(xiàn)出謹(jǐn)慎的態(tài)度,積極制定法律法規(guī)來引導(dǎo)和規(guī)范ChatGPT等生成式人工智能可能帶來的各種法律糾紛。例如,美國(guó)政府已經(jīng)開始研究是否需要審查ChatGPT等人工智能工具;意大利和德國(guó)監(jiān)管部門已經(jīng)發(fā)布了ChatGPT禁令;最近,歐洲議會(huì)通過了世界上第一個(gè)人工智能控制法案《人工智能法案》。2023年7月,中國(guó)國(guó)家網(wǎng)絡(luò)信息辦公室聯(lián)合國(guó)發(fā)展改革委、教育部、科技部、工業(yè)和信息化部、公安部等7個(gè)部門發(fā)布實(shí)施《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《辦法》),進(jìn)一步規(guī)范生成式人工智能的發(fā)展??梢钥闯?,全世界都非常重視人工智能風(fēng)險(xiǎn)的規(guī)避。但是,為了充分發(fā)揮強(qiáng)大的人工智能在人類社會(huì)中的作用,實(shí)現(xiàn)其最大限度的合理應(yīng)用,規(guī)避潛在的風(fēng)險(xiǎn),我們應(yīng)該以更科學(xué)、更直接的方式進(jìn)行治理。
第一,對(duì)《辦法》規(guī)定進(jìn)行細(xì)化,保護(hù)數(shù)據(jù)安全。雖然現(xiàn)行《辦法》已經(jīng)確立了保護(hù)數(shù)據(jù)的立場(chǎng),比如規(guī)定“使用具有合法來源的數(shù)據(jù)和基本模型”,但需要進(jìn)一步提高清晰度和可執(zhí)行性。在這方面,企業(yè)收集數(shù)據(jù)的技術(shù)應(yīng)用和數(shù)據(jù)過濾保護(hù)機(jī)制應(yīng)當(dāng)在法律層面進(jìn)行更詳細(xì)的規(guī)定和嚴(yán)格的監(jiān)督。對(duì)于數(shù)據(jù)采集,要求遵守客戶知情同意原則,嚴(yán)禁突破用戶知情同意原則,非法收集未經(jīng)授權(quán)的信息。同時(shí),規(guī)定開發(fā)者在使用生成人工智能時(shí),必須在軟件端明確告知其所享有的信息自決權(quán)、刪除權(quán)等個(gè)人信息權(quán)益,以提高用戶的個(gè)人隱私保護(hù)理念。對(duì)于與國(guó)防安全、商業(yè)秘密相關(guān)的數(shù)據(jù),人工智能開發(fā)者需要設(shè)置嚴(yán)格的過濾和保護(hù)機(jī)制,從而有效防止數(shù)據(jù)隱私泄露。需要注意的是,生成式人工智能在數(shù)據(jù)處理和應(yīng)用形式上更加復(fù)雜,相關(guān)立法部門應(yīng)隨時(shí)關(guān)注技術(shù)演變趨勢(shì),以便更好地制定與數(shù)據(jù)保護(hù)相關(guān)的規(guī)則。
第二,完善制度體系建設(shè),防止“算法歧視”?!掇k法》規(guī)定了防止人工智能“算法歧視”的現(xiàn)有條款,如第四條第四項(xiàng):“在算法設(shè)計(jì)、培訓(xùn)數(shù)據(jù)選擇、模型生成和優(yōu)化、服務(wù)提供等過程中,采取有力措施防止民族、信仰、國(guó)家、地區(qū)、性別、年齡、職業(yè)、健康等歧視。“但是,這一規(guī)定與數(shù)據(jù)安全相關(guān)規(guī)定相同,缺乏具體的規(guī)則指導(dǎo)和規(guī)范。防止“算法歧視”,包括企業(yè)內(nèi)部倫理審查監(jiān)督機(jī)制、監(jiān)督機(jī)構(gòu)和中立第三方監(jiān)督審查體系,加強(qiáng)和優(yōu)化反歧視體系建設(shè)。在算法設(shè)計(jì)中,法律應(yīng)該規(guī)定公平公正的原則應(yīng)該在企業(yè)內(nèi)部實(shí)施。在模型培訓(xùn)中,應(yīng)特別注意可能引起歧視的因素,如性別、年齡、職業(yè)和國(guó)家。同時(shí),通過監(jiān)管部門或中立第三方組織,制定監(jiān)管機(jī)構(gòu)和外部中立組織定期抽查算法模型的規(guī)則,定期審查生成人工智能的算法,以監(jiān)管是否存在“算法歧視”問題。
對(duì)于生成型人工智能所涉及的知識(shí)產(chǎn)權(quán)糾紛,應(yīng)明確人工智能對(duì)數(shù)據(jù)使用的界限,保護(hù)知識(shí)產(chǎn)權(quán)。目前,大多數(shù)觀點(diǎn)并不認(rèn)為生成式人工智能具有“獨(dú)立創(chuàng)造”的能力,它不同于具有情感、價(jià)值判斷和思想的“人”創(chuàng)造的內(nèi)容和過程。所以,人工智能生成的文本仍然應(yīng)由用戶享有其知識(shí)產(chǎn)權(quán),而不能被視為單獨(dú)的創(chuàng)作者。在知識(shí)產(chǎn)權(quán)保護(hù)方面,為避免人工智能收集和抓取未經(jīng)授權(quán)的信息,侵犯原作者的知識(shí)產(chǎn)權(quán),應(yīng)當(dāng)在法律中明確生成式人工智能收集和讀取信息的界限,對(duì)未經(jīng)權(quán)利人授權(quán)的數(shù)據(jù)和內(nèi)容形成文本的數(shù)據(jù)進(jìn)行處罰。
(作者單位:上海社會(huì)科學(xué)院法學(xué)研究所)
原題:《強(qiáng)人工智能可能帶來的法律風(fēng)險(xiǎn)及對(duì)策》
閱讀原文
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請(qǐng)?jiān)谖闹凶⒚鱽碓醇白髡呙帧?/p>
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請(qǐng)及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com