要讓人工智能平臺(tái)安全、良好、實(shí)用,唯有開源一條路

人類花了很長的時(shí)間,才把現(xiàn)在的倫理和治理機(jī)制建立起來。如果讓人工智能形成像人類一樣的意識(shí)和智慧,人類在倫理和治理上又該怎樣去滿足呢?人類對(duì)人工智能有哪些干預(yù)機(jī)制?
7月6日,2023世界人工智能大會(huì)在上海開幕。2018年圖靈獎(jiǎng)得主、Meta AI基礎(chǔ)人工智能研究院團(tuán)隊(duì)首席人工智能科學(xué)家楊立昆(Yann LeCun)在開幕式上表示,他完全不同意“因?yàn)槿魏稳丝捎萌斯ぶ悄茏鋈魏问拢闆r可能會(huì)非常危險(xiǎn),所以需要嚴(yán)格監(jiān)管人工智能”的說法。從長遠(yuǎn)來看,要讓人工智能平臺(tái)安全、良好、實(shí)用,唯有開源一條路可走。
楊立昆談AI變得智能可控的途徑。如果你認(rèn)為達(dá)到人類水平的人工智能的方法是做更大的自回歸LLM(大語言模型),然后利用多模型數(shù)據(jù)測試,那么你可能會(huì)認(rèn)為,這些人工智能系統(tǒng)不安全。但事實(shí)上我不認(rèn)為這個(gè)系統(tǒng)可以非常智能,我認(rèn)為它們變得智能的方法也是讓它們變得可控的方法,即目標(biāo)驅(qū)動(dòng)人工智能的理念。本質(zhì)上來說,就是給它們必須滿足的目標(biāo)?!睏盍⒗フf,這些目標(biāo)有的是任務(wù)界定的目標(biāo),比如系統(tǒng)回答問題了嗎?系統(tǒng)開動(dòng)你的車了嗎?系統(tǒng)清理餐桌了嗎?其他目標(biāo)則充當(dāng)安全護(hù)欄,比如不要傷害任何人。
楊立昆認(rèn)為,這些AI系統(tǒng)不會(huì)通過一點(diǎn)一滴的滲透來欺騙或主宰人類。人類可以設(shè)定目標(biāo)迫使人工智能變得誠實(shí),比如迫使人工智能屈從于人類,對(duì)那些希望他們產(chǎn)生好奇心的目標(biāo)保持謹(jǐn)慎,對(duì)那些不應(yīng)該擁有的資源保持謹(jǐn)慎。“所以我認(rèn)為這些系統(tǒng)將是完全可控可操縱的。系統(tǒng)可以被設(shè)計(jì)得安全,但這并不容易。設(shè)計(jì)這些目標(biāo),讓系統(tǒng)安全,將會(huì)是一個(gè)艱巨的工程挑戰(zhàn)?!?/span>
但楊立昆表示,人類不一定要一開始就把它設(shè)計(jì)好,可以先從建立一個(gè)像老鼠一樣聰明的系統(tǒng)做起,人類的目標(biāo)是把它打造成一只優(yōu)秀的老鼠?!拔覀儠?huì)把它們放進(jìn)沙盒或仿真環(huán)境中測試,我們要確保它們是安全的,這是很重要的問題,因?yàn)橛幸恍┤艘驗(yàn)楹ε氯斯ぶ悄艿慕Y(jié)果,整體上就希望人工智能受到嚴(yán)格監(jiān)管。因?yàn)樗麄冋f,如果任何人都能掌握人工智能,如果他們可以用人工智能做任何想做的事,那么情況可能會(huì)非常危險(xiǎn),所以需要嚴(yán)格監(jiān)管人工智能。我完全不同意這種說法?!?/span>
相反,楊立昆認(rèn)為,讓人工智能平臺(tái)安全、良好、實(shí)用,從長遠(yuǎn)來看,唯有開源。未來每個(gè)人都會(huì)通過人工智能助手與數(shù)字世界進(jìn)行交互,人類所有的信息都要通過這個(gè)人工智能助手,如果技術(shù)被少數(shù)公司所掌控,那就不是什么好事了。“未來人工智能系統(tǒng)將成為人類所有知識(shí)的寶庫,訓(xùn)練它們的方式需要基于眾多來源。因此我們將在未來看到更多的開源LLM和更多的開源人工智能系統(tǒng)?!?/span>
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請(qǐng)?jiān)谖闹凶⒚鱽碓醇白髡呙帧?/p>
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請(qǐng)及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com