亚洲欧美日韩熟女|做爱高潮视频网址|国产一区二区三级片|国产Av中文字幕www.性色av|亚洲婷婷永久免费|国产高清中文字幕|欧美变态网站久re视频精品|人妻AV鲁丝第一页|天堂AV一区二区在线观看|综合 91在线精品

強大的人工智能可能帶來的法律風險和應對策略

2024-05-31

原創(chuàng) 陳宇超 民主和法制時報


核心提示:人工智能的快速發(fā)展也意味著存在更多已知和未知的風險,這對法律的回應和規(guī)范提出了挑戰(zhàn)。企業(yè)收集數(shù)據(jù)的技術應用和數(shù)據(jù)過濾保護機制應當在法律層面進行更詳細的規(guī)定和嚴格的監(jiān)管,制度體系應當?shù)玫酵晟啤?/p>


武丹/繪圖


作家|陳宇超


責任編輯|薛應軍


文本共有2960個單詞,估計閱讀需要9分鐘。▼


五月十四日凌晨,美國人工智能OpenAI在官網發(fā)布了旗艦生成人工智能模型“GPT-“4o”,其中“o”代表“omni"(全能),是指該模型處理文本、語音和視頻的能力。與2022年11月推出的人工智能聊天機器人ChatGPT相比,它具有與人類相似的對話能力,具有幽默感,可現(xiàn)場自拍,并提供描述,包括你的著裝,甚至伴隨著現(xiàn)實世界中絕大多數(shù)的傾向,如中斷、理解語氣等。另外,除了更快的響應速度外,GPT-4o似乎很容易捕捉到情緒,并根據(jù)用戶的要求調整語氣和風格,甚至在回應中加入音效、笑聲和歌聲。一些媒體認為,這預示著強大的人工智能-生成型人工智能領域再次迎來了歷史性的時刻,這引起了人們的高度關注和討論。


近年來,隨著人工智能技術的不斷發(fā)展,它可以為人類社會提供極大的便利。以ChatGPT為代表的強大人工智能,不僅可以實現(xiàn)傳統(tǒng)人工智能的功能,還可以在自學、寫論文、編碼、擬定法律意見、智能診療等方面得到廣泛應用,對社會發(fā)展變化產生了深遠影響。然而,機遇總是與挑戰(zhàn)并存。人工智能就像一把雙刃劍。它的快速發(fā)展和升級必然意味著更多已知和未知的風險,如隱私數(shù)據(jù)隱私和“算法歧視”、在知識產權等方面的法律風險等方面,這對法律的回應和規(guī)范提出了挑戰(zhàn)。


強大的人工智能帶來的風險和挑戰(zhàn)


與傳統(tǒng)人工智能相比,強大的人工智能帶來的挑戰(zhàn)和風險可能更加明顯。本文主要從數(shù)據(jù)隱私、“算法歧視”和知識產權三個方面分析生成人工智能可能帶來的風險和爭議。


第一,數(shù)據(jù)安全問題。與傳統(tǒng)人工智能相比,ChatGPT等生成式人工智能具有很強的數(shù)據(jù)采集和抓取能力。除了用戶提供的數(shù)據(jù),網絡平臺本身的大量內容也可能被收集和讀取用于內容生成,從而可能導致數(shù)據(jù)侵權、泄露和隱私侵犯。生成式人工智能的升級迭代,如ChatGPT,需要大量的數(shù)據(jù)支持,這些信息通常來自公司購買或自行收集和抓取。這兩種方法都存在數(shù)據(jù)侵權和隱私泄露的風險,公司購買的第三方數(shù)據(jù)可能存在權屬不明確的問題;由于生成型人工智能客戶的受眾非常廣泛,用戶包括政務處理者、公司員工和個人用戶,他們收集的數(shù)據(jù)和信息非常龐大。在這些因素中,儲備的數(shù)據(jù)一旦因不明攻擊等因素被泄露,就會危害國家安全,泄露商業(yè)秘密,侵犯個人隱私等。此外,在數(shù)據(jù)采集過程中,人工智能本身可能會出現(xiàn)收集不當?shù)那闆r,比如非法收集用戶未經授權的數(shù)據(jù),突破客戶知情同意的原則,自行抓取數(shù)據(jù)。


第二,“算法歧視”可能發(fā)生在ChatGPT等生成式人工智能中。生成人工智能通?;诤A繑?shù)據(jù)和強大的模型計算率生成文本,其內容由R&D人員和用戶提供的數(shù)據(jù)和模型進行多次訓練,使其“算法歧視”更加隱蔽。目前,生成人工智能的培訓數(shù)據(jù)和詞庫大多來自歐美國家,與中國的價值觀不一致。因此,價值歧視的風險可能隱藏在生成內容中,例如,它們主要側重于西方國家的價值觀。與此同時,生成型人工智能的用戶很少有社會弱勢群體客戶,如殘疾人、不會使用電子產品的老年人等。所以,在收集數(shù)據(jù)和導出數(shù)據(jù)時,生成式人工智能可能會因為“數(shù)據(jù)鴻溝”的出現(xiàn)而對這個群體的權力產生歧視。


最后,強大的人工智能的快速發(fā)展給傳統(tǒng)的知識產權保護體系帶來了巨大的挑戰(zhàn)。與簡單完成人類指令的傳統(tǒng)“弱人工智能”不同,基于數(shù)據(jù)讀取和模型訓練的生成型人工智能具有抽象的思維能力和解決問題的能力。從外觀上看,它似乎具有人類自我“創(chuàng)造”的能力,其產生的內容應該屬于用戶還是人工智能本身,值得思考。此外,生成式人工智能的輸出內容是基于大量的數(shù)據(jù)收集和抓取,其中未經授權的內容可能會被人工智能讀取收集,用于文本內容的輸出,不會標注出處。這是否損害了原數(shù)據(jù)作者的知識產權?現(xiàn)行法律法規(guī)應該怎樣規(guī)定這一做法,并制定保障措施?對于傳統(tǒng)的知識產權保護體系來說,這些問題都是一個挑戰(zhàn),需要現(xiàn)行的法律和完善。


強大的人工智能來了,法律怎么處理?


世界各地大多表現(xiàn)出謹慎的態(tài)度,積極制定法律法規(guī)來引導和規(guī)范ChatGPT等生成式人工智能可能帶來的各種法律糾紛。例如,美國政府已經開始研究是否需要審查ChatGPT等人工智能工具;意大利和德國監(jiān)管部門已經發(fā)布了ChatGPT禁令;最近,歐洲議會通過了世界上第一個人工智能控制法案《人工智能法案》。2023年7月,中國國家網絡信息辦公室聯(lián)合國發(fā)展改革委、教育部、科技部、工業(yè)和信息化部、公安部等7個部門發(fā)布實施《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》),進一步規(guī)范生成式人工智能的發(fā)展??梢钥闯?,全世界都非常重視人工智能風險的規(guī)避。但是,為了充分發(fā)揮強大的人工智能在人類社會中的作用,實現(xiàn)其最大限度的合理應用,規(guī)避潛在的風險,我們應該以更科學、更直接的方式進行治理。


第一,對《辦法》規(guī)定進行細化,保護數(shù)據(jù)安全。雖然現(xiàn)行《辦法》已經確立了保護數(shù)據(jù)的立場,比如規(guī)定“使用具有合法來源的數(shù)據(jù)和基本模型”,但需要進一步提高清晰度和可執(zhí)行性。在這方面,企業(yè)收集數(shù)據(jù)的技術應用和數(shù)據(jù)過濾保護機制應當在法律層面進行更詳細的規(guī)定和嚴格的監(jiān)督。對于數(shù)據(jù)采集,要求遵守客戶知情同意原則,嚴禁突破用戶知情同意原則,非法收集未經授權的信息。同時,規(guī)定開發(fā)者在使用生成人工智能時,必須在軟件端明確告知其所享有的信息自決權、刪除權等個人信息權益,以提高用戶的個人隱私保護理念。對于與國防安全、商業(yè)秘密相關的數(shù)據(jù),人工智能開發(fā)者需要設置嚴格的過濾和保護機制,從而有效防止數(shù)據(jù)隱私泄露。需要注意的是,生成式人工智能在數(shù)據(jù)處理和應用形式上更加復雜,相關立法部門應隨時關注技術演變趨勢,以便更好地制定與數(shù)據(jù)保護相關的規(guī)則。


第二,完善制度體系建設,防止“算法歧視”。《辦法》規(guī)定了防止人工智能“算法歧視”的現(xiàn)有條款,如第四條第四項:“在算法設計、培訓數(shù)據(jù)選擇、模型生成和優(yōu)化、服務提供等過程中,采取有力措施防止民族、信仰、國家、地區(qū)、性別、年齡、職業(yè)、健康等歧視。“但是,這一規(guī)定與數(shù)據(jù)安全相關規(guī)定相同,缺乏具體的規(guī)則指導和規(guī)范。防止“算法歧視”,包括企業(yè)內部倫理審查監(jiān)督機制、監(jiān)督機構和中立第三方監(jiān)督審查體系,加強和優(yōu)化反歧視體系建設。在算法設計中,法律應該規(guī)定公平公正的原則應該在企業(yè)內部實施。在模型培訓中,應特別注意可能引起歧視的因素,如性別、年齡、職業(yè)和國家。同時,通過監(jiān)管部門或中立第三方組織,制定監(jiān)管機構和外部中立組織定期抽查算法模型的規(guī)則,定期審查生成人工智能的算法,以監(jiān)管是否存在“算法歧視”問題。


對于生成型人工智能所涉及的知識產權糾紛,應明確人工智能對數(shù)據(jù)使用的界限,保護知識產權。目前,大多數(shù)觀點并不認為生成式人工智能具有“獨立創(chuàng)造”的能力,它不同于具有情感、價值判斷和思想的“人”創(chuàng)造的內容和過程。所以,人工智能生成的文本仍然應由用戶享有其知識產權,而不能被視為單獨的創(chuàng)作者。在知識產權保護方面,為避免人工智能收集和抓取未經授權的信息,侵犯原作者的知識產權,應當在法律中明確生成式人工智能收集和讀取信息的界限,對未經權利人授權的數(shù)據(jù)和內容形成文本的數(shù)據(jù)進行處罰。


(作者單位:上海社會科學院法學研究所)


原題:《強人工智能可能帶來的法律風險及對策》


閱讀原文


本文僅代表作者觀點,版權歸原創(chuàng)者所有,如需轉載請在文中注明來源及作者名字。

免責聲明:本文系轉載編輯文章,僅作分享之用。如分享內容、圖片侵犯到您的版權或非授權發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com