亚洲欧美日韩熟女|做爱高潮视频网址|国产一区二区三级片|国产Av中文字幕www.性色av|亚洲婷婷永久免费|国产高清中文字幕|欧美变态网站久re视频精品|人妻AV鲁丝第一页|天堂AV一区二区在线观看|综合 91在线精品

AI生成內(nèi)容需“表明身份”,虛假信息將套上緊箍咒

宏觀聲音
5天前

這一標(biāo)識辦法的出現(xiàn),就是要給黑灰產(chǎn)予震懾。

互聯(lián)網(wǎng)上哪些是真、哪些是假,幾乎是一個永遠(yuǎn)都不會有答案的問題,因此在上網(wǎng)沖浪時去偽存真,可以說是當(dāng)下網(wǎng)民的必備技能。只可惜技術(shù)進(jìn)步的速度遠(yuǎn)超大家想象,在生成式人工智能AIGC)成熟后,互聯(lián)網(wǎng)世界的一切幾乎都變得真假難辨了。

 

 

為解決泛濫的AI虛假內(nèi)容,國家網(wǎng)信辦等四部門日前聯(lián)合發(fā)布《人工智能生成合成內(nèi)容標(biāo)識辦法》,從今年9月1日開始,所有AI生成的文字、圖片、視頻等內(nèi)容需要添加顯式和隱式兩種標(biāo)識,其中顯式標(biāo)識是指可以被用戶明顯感知到的標(biāo)識,隱式標(biāo)識則是指在生成內(nèi)容的元數(shù)據(jù)中添加的標(biāo)識。

 

相比于以往由微信、抖音、小紅書、微博等平臺建立的AI內(nèi)容管理體系,這一新規(guī)最大的變化就是發(fā)布者是AI內(nèi)容的第一責(zé)任人,他們將對AI虛假內(nèi)容負(fù)主要責(zé)任。但從某種意義上來看,讓內(nèi)容發(fā)布者作為第一道防火墻屬于“不是辦法的辦法”。

 

 

如今AI幾乎已經(jīng)成為了互聯(lián)網(wǎng)最大的謠言制造機(jī),比如“AI馬斯克”騙走老人退休金、“Yahoo Boys”使用AI生成的視頻搞“殺豬盤”等有關(guān)黑產(chǎn)利用AI作惡的消息已經(jīng)并不鮮見。黑產(chǎn)利用多模態(tài)AI大模型生成的內(nèi)容以假亂真,讓眼見不一定為實、耳聽不一定為真。

 

事實上,在AIGC前置技術(shù)深度學(xué)習(xí)剛剛誕生不久后,就有黑產(chǎn)盯上了這項新興技術(shù)。只不過彼時機(jī)器學(xué)習(xí)的局限,導(dǎo)致使用它的門檻相當(dāng)高。最典型的例子,就是在2017年被Reddit網(wǎng)友發(fā)明的deepfakes(深度偽造)技術(shù),可即便deepfakes是開源的,但玩轉(zhuǎn)它需要的生成對抗網(wǎng)絡(luò)(GAN)和變分自編碼器(VAE)就不是一般人能玩轉(zhuǎn)的。

 

以ChatGPT為代表的AI大模型技術(shù)的出現(xiàn),讓deepfake進(jìn)入了尋常百姓家,不再是技術(shù)愛好者的專屬。以往使用深度學(xué)習(xí)技術(shù)偽造內(nèi)容還需要用戶在特定工具中反復(fù)調(diào)試參數(shù),但現(xiàn)在一眾科技巨頭為了爭奪AI時代的船票,爭先恐后地推進(jìn)AI技術(shù)普惠化。

 

大語言模型以及隨后誕生的多模態(tài)大模型,讓文生音頻、文生視頻已經(jīng)變成了現(xiàn)實,諸如可靈AI、即夢AI等琳瑯滿目的AI產(chǎn)品,就實現(xiàn)了用自然語言即可無中生有。別的不談,谷歌在不久前發(fā)布的Nano-banana堪稱直接顛覆了Photoshop,不僅能“生圖”,還可以遵循人類的自然語言來做復(fù)雜修圖,也讓人工編寫的內(nèi)容與AI創(chuàng)作的內(nèi)容之間的差異變得越來越模糊。

 

到了2025年,如果有“作惡”的想法,那么“作案工具”就已經(jīng)是唾手可得。那么問題就來了,有沒有可能讓這些AI廠商從源頭杜絕AI大模型產(chǎn)出有害的虛假內(nèi)容呢?實際上,OpenAI、谷歌、字節(jié)跳動、阿里等大廠一直在努力,“AI安全護(hù)欄”(AI Guardrail)就是他們?yōu)榱俗孉I符合人類期望而設(shè)計的防護(hù)機(jī)制,以防AI生成有害內(nèi)容。

 

 

通過動態(tài)意圖分析、對抗性樣本訓(xùn)練、跨模態(tài)驗證等方式,AI廠商試圖用“安全護(hù)欄”把AI保護(hù)起來。只可惜“AI安全護(hù)欄”存在魚與熊掌不可兼得的缺陷,畢竟AI大模型想要智能就需要有自主決策能力,必須有一定的主觀能動性,這就使得開發(fā)者不可能將安全護(hù)欄設(shè)置得密不透風(fēng),來完全杜絕AI系統(tǒng)生成有害內(nèi)容、遭受惡意攻擊或泄露敏感信息。

 

換而言之,如果“AI安全護(hù)欄”過于嚴(yán)密,結(jié)果就是AI模型會變成“智障”。指望花了成百上千億美元的這些科技巨頭為了安全讓自家AI變成“智障”,顯然并不現(xiàn)實。因此他們選擇了讓AI內(nèi)容變得可追溯、可辨別,開始嘗試給AI內(nèi)容打水印,從而讓用戶一眼就能看出相關(guān)內(nèi)容是否出自AI之手。

 

 

此前在去年夏季,微軟、Adobe、索尼、OpenAI、Meta等公司組建C2PA(內(nèi)容來源和真實性聯(lián)盟),試圖通過水印技術(shù)將AI生成的內(nèi)容與人類的作品區(qū)分開來。然而遺憾的是,來自美國的研究人員發(fā)現(xiàn),AI水印并不牢固,通過破壞性的調(diào)整亮度、對比度,建設(shè)新的高斯模糊等技術(shù)輕松就能去除了預(yù)設(shè)的水印。

 

不僅是技術(shù)手段行不通,國內(nèi)互聯(lián)網(wǎng)大廠常用的運(yùn)營方式在AI虛假內(nèi)容面前其實也不太管用。為了幫助用戶區(qū)分虛擬與真實,在AI大模型出現(xiàn)后,微信、抖音、快手、知乎等一眾臺開始陸續(xù)要求內(nèi)容創(chuàng)作者主動添加“內(nèi)容由AI生成”這樣的聲明。

 

可現(xiàn)實是大量創(chuàng)作者篤信一旦主動聲明了內(nèi)容由AI創(chuàng)作就會被限流,從而導(dǎo)致大量由AI生成的內(nèi)容并未主動表明身份。其實這種陰謀論是有土壤的,因為這些互聯(lián)網(wǎng)內(nèi)容平臺對于AI的態(tài)度很復(fù)雜,他們既希望AI技術(shù)可以賦能創(chuàng)作、豐富內(nèi)容供給,又不愿意看到低質(zhì)量的AI內(nèi)容污染社區(qū)氛圍。

 

 

如此一來,將責(zé)任傳導(dǎo)到創(chuàng)作者這個看起來不合理的決策,反而是當(dāng)前技術(shù)條件下遏制AI虛假內(nèi)容的有效手段。畢竟使用AI主動炮制諸如“被壓在廢墟下的孩子”這樣的內(nèi)容,基本都是帶有主觀惡意的,一般人使用AI生圖或創(chuàng)作視頻僅會局限于“圖一樂”。

 

使用AI生成虛假內(nèi)容的人顯然沒辦法給造假編織一個合理的解釋,所以《人工智能生成合成內(nèi)容標(biāo)識辦法》的出現(xiàn)無疑就是給想要用AI“搞事情”的潛在黑灰產(chǎn)予震懾。

本文僅代表作者觀點,版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。

免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com