擬議的歐盟人工智能責(zé)任規(guī)則:輕松還是負(fù)擔(dān)?
針對人工智能技術(shù)的商業(yè)開發(fā)和應(yīng)用監(jiān)管,科技公司和政府監(jiān)管者正在全球激烈博弈。歐盟的監(jiān)管者就要求科技公司確保其人工智能產(chǎn)品在開發(fā)時就采用一些減輕潛在危害的方法。
監(jiān)管者的責(zé)任義務(wù)能否通過設(shè)定規(guī)則順利實現(xiàn)?奧斯陸和平研究所(PRIO)研究員Samar Abbas Nawaz用一篇文章分析了其間存在的現(xiàn)實挑戰(zhàn)?!痘ヂ?lián)網(wǎng)法律評論》今日摘譯該文核心觀點(diǎn),供讀者參考。
“誰該為人工智能(AI)系統(tǒng)造成的傷害負(fù)責(zé)?”是人們在使用人工智能系統(tǒng)時的普遍擔(dān)憂。歐盟委員會自從2021年提出要對人工智能系統(tǒng)進(jìn)行監(jiān)管后,目前正在設(shè)法解決這個關(guān)鍵的責(zé)任問題。
監(jiān)管人工智能技術(shù)的安全使用并不是一件容易的事,但是確保人工智能系統(tǒng)的安全使用對立法者來說是至關(guān)重要責(zé)任。根據(jù)擬議的兩項指令(directives),歐盟委員會旨在通過強(qiáng)加責(zé)任的規(guī)則來保護(hù)人工智能的受害者。因此,我們有必要分析這些規(guī)則在多大程度上解決了責(zé)任問題,并使受害方更容易就所造成的損害獲得損害賠償。
1.歐盟人工智能責(zé)任規(guī)則的背景
2020 年,歐盟委員會發(fā)布了一份關(guān)于人工智能的白皮書,承諾解決與使用人工智能系統(tǒng)相關(guān)的各種風(fēng)險。隨后在 2021 年提出了一項提案——《人工智能法案》(AIA,目前尚未通過)。
擬議的法案通過區(qū)分被禁止的和高風(fēng)險的人工智能系統(tǒng),提出“對個人的有害風(fēng)險降至最低”的重要要求。“被禁止”的人工智能系統(tǒng)包括實時生物特征識別、社會評分或操縱性人工智能系統(tǒng)(第 5 條)。更嚴(yán)格的要求適用于高風(fēng)險人工智能系統(tǒng)。“高風(fēng)險”人工智能系統(tǒng)受歐盟統(tǒng)一法規(guī)(第6條)的合格評估要求的約束,有更嚴(yán)格的要求——這些系統(tǒng)只有在符合規(guī)定的風(fēng)險管理系統(tǒng)、透明度、人工監(jiān)督、適當(dāng)?shù)臄?shù)據(jù)質(zhì)量和有效的網(wǎng)絡(luò)安全要求的情況下才能使用。
但是,一旦這些風(fēng)險成為現(xiàn)實并且有人受到傷害,后果如何?如何追究相關(guān)責(zé)任?為了解決這些問題,歐盟委員會最近提出了兩項指令:即《人工智能責(zé)任指令》(AILD)和修訂后的《產(chǎn)品責(zé)任指令》(PLD)。當(dāng)人工智能系統(tǒng)造成傷害時,AILD為證明某人的錯誤鋪平了道路。用法律術(shù)語來說,它可以被視為一種“基于過錯的責(zé)任”機(jī)制。修訂后的 PLD 在損害是由 人工智能系統(tǒng)的缺陷而不是由于某人的過錯造成的情況下很有用。因此,它建立了“無過錯責(zé)任”規(guī)則。這一努力背后的想法是增強(qiáng)公眾對人工智能技術(shù)的信任,并為參與開發(fā)這些系統(tǒng)的企業(yè)提供法律上的明確性。
2.《人工智能責(zé)任指令》 (AILD)
AILD 的內(nèi)容主要包含了人工智能系統(tǒng)之于受害者的兩個假設(shè),以及信息披露。
在擬議的指令中可以找到兩個假設(shè):一種適用于不遵守注意義務(wù),另一種適用于過錯與輸出之間的聯(lián)系,稱為“因果關(guān)系推定”。
簡單來說,“因果關(guān)系推定”假設(shè)人工智能系統(tǒng)造成的損害是由于提供者或用戶的過錯造成。如果提供者或用戶(無論案件中的被告是誰)——即使在國家法院下令披露后——仍未提供有關(guān)相關(guān)系統(tǒng)的信息,則該推定生效?!肮?yīng)商”在 AILD 框架的背景下,被定義為制造商或任何以自己的商品名稱將給定的人工智能系統(tǒng)投放市場的機(jī)構(gòu)。“用戶”可以是在其授權(quán)下使用人工智能系統(tǒng)的任何人。
然而,被告可以通過舉證來推翻這一因果推定——人工智能系統(tǒng)可訪問信息足以證明是系統(tǒng)的錯誤(如果有的話)。如果供應(yīng)商違反了相關(guān)法律規(guī)定的注意義務(wù),以及AIA有關(guān)數(shù)據(jù)質(zhì)量、透明度、人力監(jiān)督、網(wǎng)絡(luò)安全的任何要求,或在發(fā)現(xiàn)故障時未退出給定系統(tǒng),則供應(yīng)商將承擔(dān)責(zé)任;另一方面,如果用戶違反使用說明或?qū)⑾到y(tǒng)暴露于不相關(guān)的輸入數(shù)據(jù),則用戶將承擔(dān)責(zé)任。
關(guān)于如何提供有害的人工智能系統(tǒng)信息,AILD 允許受害者通過國家法院尋求信息披露(第 3 條)。為確保人工智能系統(tǒng)的透明度,擬議中的AIA第13條也有關(guān)于信息披露的類似規(guī)定。這些要求之間的主要區(qū)別在于:AIA 要求是針對系統(tǒng)用戶的,而 AILD 要求向任何受 人工智能系統(tǒng)傷害的受害者披露信息。因此,AILD 旨在使索賠人更容易根據(jù)所披露的信息證明過失,從而為所遭受的任何損害尋求賠償。例如,如果民用環(huán)境中的人工智能無人機(jī)發(fā)生故障并傷害旁觀者,那么旁觀者可以根據(jù)自然人的過錯要求賠償。AILD將允許索賠人從其供應(yīng)商或用戶那里尋求有關(guān)無人機(jī)的信息,以確定故障。
3.修訂后的《產(chǎn)品責(zé)任指令》 (PLD)
《產(chǎn)品責(zé)任指令》(PLD)于 1985 年通過,在應(yīng)用于人工智能系統(tǒng)時存在一些缺陷,因此早就應(yīng)該對 PLD 進(jìn)行修訂。此次修訂版的一個重要方面是將軟件納入其應(yīng)用范圍。這被視為背離了傳統(tǒng)立場,即只有產(chǎn)品的制造商或進(jìn)口商可以承擔(dān)責(zé)任,而不是軟件開發(fā)人員。與 AILD 相比,修訂后的 PLD 允許基于產(chǎn)品缺陷而不是基于過錯來追究提供商的責(zé)任。因此,如果人工智能驅(qū)動的無人機(jī)因某些缺陷對任何人造成傷害,則索賠人可以根據(jù)修訂后的 PLD 尋求補(bǔ)救。
PLD第 9 條承認(rèn)兩種推定:缺陷推定,缺陷與損害之間存在因果關(guān)系的推定。在以下三種情況下會觸發(fā)“缺陷推定”:
供應(yīng)商未披露系統(tǒng)信息;
索賠人證明了系統(tǒng)的明顯故障;
索賠人表明供應(yīng)商違反了安全規(guī)則
如果損壞與缺陷“典型一致”,因果關(guān)系的假設(shè)就會啟動。如果系統(tǒng)的技術(shù)復(fù)雜性導(dǎo)致難以識別缺陷,則可以同時做出兩種假設(shè)。然而,為了能夠依賴這些推定,索賠人仍然必須證明存在缺陷的可能性以及產(chǎn)品造成損害的可能性。但是,供應(yīng)商可以通過證明不存在這種過度的技術(shù)困難來反駁上述假設(shè)。
4.兩部指令面臨的現(xiàn)實挑戰(zhàn):受害人沉重的舉證責(zé)任
對以上兩個指令——特別是AILD——的批評之一是,盡管提供了相關(guān)信息,但仍然很難證明復(fù)雜的人工智能系統(tǒng)故障。特別是,一些人工智能系統(tǒng)的行為是自主的,它們的功能很復(fù)雜,任何輸出的原因都不容易理解。這一挑戰(zhàn)涉及“黑箱”算法問題,當(dāng)人工智能系統(tǒng)導(dǎo)致難以理解的特定結(jié)果的信息輸入時,就會出現(xiàn)這種問題。在這種情況下,即便能夠提供足夠的系統(tǒng)信息,這對受害者是否真的有好處?
盡管提議的 AILD 在引言中提到了自治對于理解系統(tǒng)是一個問題,但該指令幾乎沒有使受害者更容易建立因果關(guān)系的假設(shè)。根據(jù) AILD,受害方仍將面臨沉重的舉證責(zé)任:從提供證據(jù)支持索賠的合理性,到確定不符合 AIA 要求,并證明人工智能系統(tǒng)的行為與所遭受的損害之間存在聯(lián)系。
證明不符合AIA 中規(guī)定的要求也可能非常困難。例如,要證明用于開發(fā)人工智能系統(tǒng)的數(shù)據(jù)集或給定系統(tǒng)的準(zhǔn)確度水平確實不足,可能并不容易。因此,提議的 AILD 充其量是為受害者提供非常有限的程序便利。需要做更多的工作來有效地促進(jìn)人工智能造成損害進(jìn)而可獲得的補(bǔ)救機(jī)制。
處理此問題的一種方法是,修訂后的 PLD 使用基于缺陷的補(bǔ)救措施,無需證明過錯。但是,根據(jù) PLD,只有在發(fā)生實質(zhì)性損害的情況下才能尋求賠償。這意味著,任何金融機(jī)構(gòu)的信用評分系統(tǒng)都不能因為存在缺陷而受到挑戰(zhàn),因為這些系統(tǒng)可能不會以實質(zhì)性的方式傷害個人。在這種情況下,受害的人必須通過 AILD 證明過錯才能獲得賠償。歐洲消費(fèi)者組織 (BEUC) 副主任 Ursula Pachl在談?wù)摂M議指令時已經(jīng)表達(dá)了這種擔(dān)憂——?dú)W盟委員會的做法對開發(fā)商更有利,其中一些人反對在準(zhǔn)備這些提案期間對非實質(zhì)損害承擔(dān)嚴(yán)格責(zé)任。
除此障礙外,PLD 還要求索賠人證明由于系統(tǒng)缺陷而造成損害的可能性,以利用缺陷推定。這就提出了一個問題,關(guān)于索賠人必須滿足的可能性的參數(shù),特別是當(dāng)給定系統(tǒng)太復(fù)雜而無法理解時。
5.結(jié)論
歐盟委員會提議的AILD,主要是為以人工智能系統(tǒng)的信息來確定責(zé)任提供了便利。在某種程度上,這對 人工智能系統(tǒng)的透明性要求提出了硬性要求,該要求也包含在提議的 AIA 中。然而,在這樣做的同時,擬議的責(zé)任指令也給索賠人帶來了一些需要克服的棘手障礙——是否必須確定缺陷和因果關(guān)系的過錯或假設(shè),以及損害與缺陷或過錯之間的聯(lián)系。
歐盟委員會的提案處于最初的立法階段,可能會在最終通過之前進(jìn)行各種修改。而且,擬議 AIA 的潛在修改也可能仍會改變擬議責(zé)任指令的實施,因為這些指令依賴于 AIA 中規(guī)定的定義和要求。
確立人工智能責(zé)任的立法努力是朝著有效監(jiān)管人工智能的正確方向邁出的重要一步。然而,仍然有必要對人工智能系統(tǒng)所涉及的復(fù)雜性保持謹(jǐn)慎,特別是當(dāng)目標(biāo)是保護(hù)受害者時。
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com




