開(kāi)放模型權(quán)重被指將導(dǎo)致AI失控,Meta遭舉牌抗議,LeCun:開(kāi)源AI社區(qū)如火如荼
AI 尤其是大模型時(shí)代的開(kāi)源與閉源,有利有弊,重要的是如何在使用的過(guò)程中做好文章。
一直以來(lái),人們?cè)?AI 領(lǐng)域的開(kāi)源與閉源選擇上存在著分歧,而在大模型時(shí)代,開(kāi)源這股強(qiáng)大的力量已經(jīng)悄然崛起。根據(jù)此前谷歌泄露的一份內(nèi)部文件,圍繞 Meta 的 LLaMA 等開(kāi)源模型,整個(gè)社區(qū)正在迅速構(gòu)建與 OpenAI、谷歌大模型能力類似的模型。
毋庸置疑,Meta 是開(kāi)源世界的絕對(duì)核心,持續(xù)做出開(kāi)源努力,如最近發(fā)布 Llama 2。然而木秀于林風(fēng)必摧之,最近 Meta 因?yàn)殚_(kāi)源陷入了「麻煩」。
在 Meta 的舊金山辦公室外,一群手舉標(biāo)語(yǔ)的抗議者聚集在一起,抗議 Meta 公開(kāi)發(fā)布 AI 模型的策略,并聲稱這些發(fā)布的模型造成了潛在不安全技術(shù)的「不可逆轉(zhuǎn)的擴(kuò)散」。甚至有抗議者將 Meta 發(fā)布的大模型比作「大規(guī)模殺傷性武器」。
這些抗議者自稱為「concerned citizens」(關(guān)心某事的公民),由 Holly Elmore 領(lǐng)導(dǎo)。根據(jù)領(lǐng)英信息,她是 AI Pause(中止 AI)運(yùn)動(dòng)的獨(dú)立倡導(dǎo)者。
圖源:MISHA GUREVICH
她指出,如果一個(gè)模型被證明不安全,則可以關(guān)閉 API,比如谷歌和 OpenAI 等只允許用戶通過(guò) API 訪問(wèn)的大模型。
與之相反,Meta 的 LLaMA 系列開(kāi)源模型向公眾提供了模型權(quán)重,使得任何擁有合適硬件和專業(yè)知識(shí)的人都可以自行復(fù)制和調(diào)整模型。一旦發(fā)布了模型權(quán)重,發(fā)布公司就不再有任何手段來(lái)控制 AI 的使用方式了。
在 Holly Elmore 看來(lái),釋放模型權(quán)重是一項(xiàng)危險(xiǎn)的策略,任何人都可以修改模型,并且這些模型無(wú)法被召回。「模型越強(qiáng)大,這項(xiàng)策略就越危險(xiǎn)?!?/span>
相較于開(kāi)源,通過(guò) API 訪問(wèn)的大模型通常具備各種安全特性,比如響應(yīng)過(guò)濾或通過(guò)特定訓(xùn)練阻止輸出危險(xiǎn)或令人厭惡的響應(yīng)。
如果模型權(quán)重被釋放出來(lái),那么重新訓(xùn)練模型來(lái)跳過(guò)這些「護(hù)欄」就變得容易多了。這使得利用這些開(kāi)源模型來(lái)制作網(wǎng)絡(luò)釣魚軟件、實(shí)施網(wǎng)絡(luò)攻擊更加成為了可能。
圖源:MISHA GUREVICH
因?yàn)?,她認(rèn)為部分問(wèn)題在于「針對(duì)模型釋放的安全措施不夠」,需要有更好的方式來(lái)保證模型安全。
目前,Meta 尚未對(duì)此發(fā)表任何評(píng)論。不過(guò),Meta 首席 AI 科學(xué)家 Yann LeCun 似乎對(duì)「開(kāi)源 AI 必須被取締」這一說(shuō)法進(jìn)行了回應(yīng),曬出了巴黎開(kāi)源 AI 創(chuàng)業(yè)社區(qū)的盛況。
與 Holly Elmore 持不同意見(jiàn)的人也有很多,認(rèn)為 AI 發(fā)展的開(kāi)放策略是確保實(shí)現(xiàn)技術(shù)信任的唯一途徑。
有網(wǎng)友表示,開(kāi)源有利有弊,既可以讓人們獲得更高透明度并增強(qiáng)創(chuàng)新,但也將面臨惡意行為者濫用(如代碼)的風(fēng)險(xiǎn)。
不出所料,OpenAI 再次遭到了揶揄,「它應(yīng)該回歸開(kāi)源?!?/span>
對(duì)開(kāi)源持有擔(dān)憂的不在少數(shù)
MIT AI 安全博士后研究員 Peter S. Park 表示:「未來(lái)廣泛發(fā)布先進(jìn)的 AI 模型將特別成問(wèn)題,因?yàn)榉乐篂E用 AI 模型基本是不可能的?!?/span>
不過(guò),非營(yíng)利性人工智能研究組織 EleutherAI 的執(zhí)行董事 Stella Biderman 表示:「到目前為止,幾乎沒(méi)有證據(jù)表明開(kāi)源模型造成了任何具體的損害。目前還不清楚是否僅在 API 背后放置一個(gè)模型就可以解決安全問(wèn)題?!?/span>
Biderman 認(rèn)為:「構(gòu)建 LLM 的基本要素已在免費(fèi)的研究論文中公開(kāi),世界上任何人都可以閱讀論文文獻(xiàn)來(lái)開(kāi)發(fā)自己的模型。」
她還補(bǔ)充道:「鼓勵(lì)公司對(duì)模型細(xì)節(jié)保密可能會(huì)對(duì)領(lǐng)域研究的透明度、公眾意識(shí)和科學(xué)發(fā)展產(chǎn)生嚴(yán)重的不良后果,特別是會(huì)影響?yīng)毩⒀芯咳藛T?!?/span>
盡管大家已經(jīng)在討論開(kāi)源帶來(lái)的影響,但 Meta 的方法是否真的足夠開(kāi)放,是否能夠發(fā)揮開(kāi)源的優(yōu)勢(shì),還未可知。
開(kāi)放源代碼促進(jìn)會(huì)(OSI)執(zhí)行董事 Stefano Maffulli 表示:「開(kāi)源 AI 的概念尚未得到正確定義。不同的組織使用該術(shù)語(yǔ)來(lái)指代不同的事物 —— 表示不同程度的『公開(kāi)可用的東西』,這會(huì)讓人們感到困惑?!?/span>
Maffulli 指出,對(duì)于開(kāi)源軟件來(lái)說(shuō),關(guān)鍵問(wèn)題是源代碼是否公開(kāi)可用并可復(fù)現(xiàn)用于任何目的。但是想復(fù)現(xiàn) AI 模型可能必須要共享訓(xùn)練數(shù)據(jù)、收集數(shù)據(jù)的方式、訓(xùn)練軟件、模型權(quán)重、推理代碼等等。其中,最重要的是訓(xùn)練數(shù)據(jù)可能存在隱私和版權(quán)問(wèn)題。
OSI 自去年以來(lái)一直致力于為「開(kāi)源 AI」給出一個(gè)確切的定義,很有可能會(huì)在未來(lái)幾周內(nèi)發(fā)布早期草案。但無(wú)論如何,他都認(rèn)為開(kāi)源對(duì) AI 發(fā)展至關(guān)重要?!溉绻?AI 不是開(kāi)源的,我們就不可能擁有值得信賴、負(fù)責(zé)任的 AI」,他說(shuō)道。
未來(lái),關(guān)于開(kāi)源與閉源的分歧會(huì)一直延續(xù)下去,但開(kāi)源已經(jīng)無(wú)法阻擋。
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請(qǐng)?jiān)谖闹凶⒚鱽?lái)源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請(qǐng)及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com