7 家 AI 巨頭,在白宮做出“自愿”承諾
“我們必須對新興技術(shù)的風(fēng)險(xiǎn)保持清醒和警惕,這些風(fēng)險(xiǎn)可能會(huì)對我們的民主和價(jià)值觀構(gòu)成威脅?!?/p>
美國時(shí)間7月21日,美國總統(tǒng)拜登在講話中如此說道。當(dāng)天,白宮宣布,7家人工智能領(lǐng)域的巨頭經(jīng)過與白宮數(shù)月的磋商后,“自愿”做出一系列承諾,以應(yīng)對AI帶來的風(fēng)險(xiǎn)。
這7家公司包括Google、微軟、Meta、OpenAI、亞馬遜、Anthropic和Inflection。
在實(shí)質(zhì)性的法律法規(guī)到來之前,拜登政府希望用“自愿承諾”的方式,實(shí)現(xiàn)人工智能技術(shù)安全、可靠和透明的發(fā)展目標(biāo)。白宮官員承認(rèn),目前沒有執(zhí)行機(jī)制來確保這些公司遵守承諾,但正在制定一項(xiàng)有關(guān)的行政命令。
隨著生成式AI的廣泛運(yùn)用,各類圖文、甚至音視頻的假消息開始泛濫,虛假信息傳播成為了人們對AI的一大擔(dān)憂。尤其是在美國2024大選前夕,這一議題受到了更多關(guān)注。
7家公司共同宣布,將開發(fā)例如水印系統(tǒng)的技術(shù),以確保用戶能夠分別人工智能生成的內(nèi)容。
此次,7家公司共同或部分做出的其他承諾還包括:
- 投資網(wǎng)絡(luò)安全和內(nèi)部威脅防護(hù)措施,以保護(hù)專有和未發(fā)布的模型權(quán)重;
- 促進(jìn)第三方發(fā)現(xiàn)和報(bào)告其人工智能模型中的漏洞;
- 公開報(bào)告其人工智能模型的能力、限制以及適當(dāng)和不適當(dāng)使用的領(lǐng)域;
- 優(yōu)先研究人工智能模型可能帶來的社會(huì)風(fēng)險(xiǎn),包括避免有害的偏見和歧視以及保護(hù)隱私;
- 開發(fā)和部署先進(jìn)的人工智能模型,以幫助解決社會(huì)面臨的最大挑戰(zhàn)。
在今年6月,歐盟專員蒂埃里·布雷頓訪問舊金山期間,就曾與OpenAI CEO奧特曼討論過人工智能生成內(nèi)容水印的問題。奧特曼當(dāng)時(shí)表示,“很樂意盡快展示OpenAI對水印的處理”。
盡管拜登稱這些承諾是“真實(shí)而具體的”,但其中的許多項(xiàng)都有些模糊,缺乏具體執(zhí)行的細(xì)節(jié),象征意義超過了實(shí)質(zhì)意義。
例如,7家公司共同承諾,在行業(yè)內(nèi)及與政府、民間社會(huì)和學(xué)術(shù)界分享有關(guān)管理人工智能風(fēng)險(xiǎn)的信息。不過,如何確定風(fēng)險(xiǎn)信息的披露范圍、如何進(jìn)行披露都存在待商討的模糊地帶。
不同AI公司對于信息披露的態(tài)度也截然不同。Meta對于其AI模型的分享顯然更加開放,大部分模型均為開源,公開供所有人使用。然而,OpenAI在發(fā)布GPT-4時(shí)則稱,出于對競爭和安全的考慮,拒絕公布模型的訓(xùn)練數(shù)據(jù)量和模型尺寸。
承諾中還指出,在發(fā)布AI模型之前,會(huì)對其進(jìn)行內(nèi)部和外部的安全測試。然而,這條承諾并沒有明確說明這些模型需要經(jīng)過什么測試,測試應(yīng)當(dāng)由什么機(jī)構(gòu)完成,測試的具體標(biāo)準(zhǔn)是怎樣的。
事實(shí)上,這些AI公司在發(fā)布模型之前,都宣稱已經(jīng)對其進(jìn)行了內(nèi)部的安全測試。不過,此次是這些公司首次集體承諾,允許外部專家對其模型進(jìn)行測試。
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請?jiān)谖闹凶⒚鱽碓醇白髡呙帧?/p>
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com