亚洲欧美日韩熟女|做爱高潮视频网址|国产一区二区三级片|国产Av中文字幕www.性色av|亚洲婷婷永久免费|国产高清中文字幕|欧美变态网站久re视频精品|人妻AV鲁丝第一页|天堂AV一区二区在线观看|综合 91在线精品

"一鍵脫衣"軟件再現(xiàn)網(wǎng)絡(luò)!“身邊的女性”或成受害者

早知道
2020-10-22

來源丨雷鋒網(wǎng)

 

還記得“一鍵脫衣AI”DeepNude嗎?

 

去年6月,這款深度造軟件發(fā)布僅幾個小時便因訪問請求過大迅速宕機,而其原因是它可以一鍵脫掉女性衣服,制造大量色情圖片。

 

近日,據(jù)調(diào)查發(fā)現(xiàn),這款色情的軟件再次出現(xiàn)在了即時消息應(yīng)用程序——Telegram中。

 

截止目前,該軟件在TeleGram平臺已經(jīng)公開發(fā)布了約104,852張色情圖片,這一數(shù)據(jù)還不包括私下分享傳播的圖片。更重要的是,這些圖片70%全部來自社交網(wǎng)絡(luò)中的真實女性,甚至包括未成年人。

 

也就是說,日常在Facebook、微博等社交媒體中分享的自拍照,很可能會被人用來生成“果照”。

 

DeepNude盯上了“可能認識的人”

 

這項調(diào)查來自美國阿姆斯特丹的網(wǎng)絡(luò)安全公司Sensity,這家公司專注于所謂的“視覺威脅情報”,尤其是那些深度造假視頻的傳播。他們調(diào)查發(fā)現(xiàn),截至7月底,Telegram平臺七個主要頻道均在使用DeepNude軟件。

 

該軟件吸引了全球103,585名用戶,其中用戶最多的頻道有45,615人。這些用戶大部分聚集在俄羅斯及東歐周邊地區(qū)。

 

據(jù)了解,這款軟件爆火的原因有三點。一是操作非常簡單,只需要一張照片,上傳至軟件后,幾秒就可以自動生成裸照,不需要任何技術(shù)知識或者專門的硬件支持。

 

二是所有人免費使用。不過它也有盈利模式,未付費用戶獲得的裸照后會打上水印標(biāo)簽或者只有局部裸露,用戶支付1.28美元才可以獲得無水印圖片,但使用權(quán)限僅限七天100張。

 

三是可以獲得熟悉的人的裸照。Deepfake偽造色情視頻已經(jīng)屢見不鮮,主要以為名人為目標(biāo)。但根據(jù)一項民意調(diào)查顯示,大多數(shù)用戶對“現(xiàn)實生活中認識的女性”更感興趣,占比達到了63%。

 

而DeepNude恰好提供了這樣的支持,任何用戶使用任何照片都可以生成裸照。

 

從TeleGram平臺的公開數(shù)據(jù)來看,許多照片中的女性都是普通上班族、大學(xué)生,而且這些照片都是來自TikTok、Instagram、Facebook等平臺的自拍照。

 

需要注意的是,這款深度造假軟件只針對女性。如果上傳一張男性或者其他任何無生命照片,系統(tǒng)也會自動被替換成女生的身體,并識別成相應(yīng)的器官。

 

Sensity首席科學(xué)家喬治·帕特里尼(Giorgio Patrini)介紹稱,目前已經(jīng)超過680,000名女性在未知情的情況下被偽造成了色情圖片,并上傳到了公共媒體平臺。

 

目前,Sensity公司的相關(guān)調(diào)查數(shù)據(jù)已經(jīng)對外披露,相關(guān)執(zhí)法部門也對此展開了調(diào)查。而至此,為何允許該色情軟件出現(xiàn)在社交平臺中,Telegram一直未給出公開答復(fù)。

 

另外,據(jù)Sensity調(diào)查顯示,除了Telegram之外,另一家俄羅斯社交媒體平臺VK也發(fā)現(xiàn)了DeepNude,而且它已經(jīng)開始公開為軟件打廣告。

 

不過,此事件一出后,相關(guān)負責(zé)人便立刻出面回應(yīng)否認了這一說法。同時他強調(diào),

 

VK不容忍平臺上出現(xiàn)此類內(nèi)容或鏈接,同時也會阻止分發(fā)它們的社區(qū)。另外,此類社區(qū)或鏈接并未使用VK廣告工具進行宣傳,我們也進行額外的檢查,并阻止不當(dāng)內(nèi)容的出現(xiàn)。

 

創(chuàng)建者:我不是偷窺狂,只是出于獵奇心

 

然而,就是這樣一款色情造假軟件,它的創(chuàng)建初心竟然是出于好奇心和對技術(shù)的熱忱。

 

2019年6月27日,DeepNude軟件首次公開上線,隨后不久,系統(tǒng)就因為用戶訪問量過大而宕機。

 

但就是這幾個小時,這款針對女性的“一鍵脫衣AI”已經(jīng)在國內(nèi)外引起軒然大波。

 

有關(guān)“侵犯隱私、性別歧視”等指責(zé)聲在Twitter、Reddit、微博等各大社交媒體平臺層出不窮。深度學(xué)習(xí)先驅(qū)吳恩達(Andrew Ng)還發(fā)推稱,DeepNude是“人工智能最令人惡心的應(yīng)用之一”。

 

而對于外界的種種指責(zé),它的開發(fā)者阿爾貝托(Alberto)卻公開回應(yīng)稱:

 

“這個世界還沒為 DeepNude 做好準(zhǔn)備!”“我不是偷窺狂。我是技術(shù)的愛好者”。

 

同時他強調(diào),“我不關(guān)心裸照之類的。有些人自己不想用,就想著讓別人也用不上,這很蠢。對技術(shù)知識的封堵和審查,是無法阻止它的擴散和傳播?!?/p>

 

據(jù)了解,Alberto的研發(fā)靈感是來自某雜志上的一個X射線眼鏡。他對AI技術(shù)非常感興趣,當(dāng)發(fā)現(xiàn)GAN網(wǎng)絡(luò)能夠把白天照片編變成黑夜照片后,便意識到同樣利用GAN也可以將一張穿衣服的照片轉(zhuǎn)換成一張不穿衣服的照片。正是出于這樣的好奇,最終研發(fā)出了DeepNude。

 

具體來說,DeepNud是基于稱為“ pix2pix ”的開源“圖像到圖像翻譯”軟件構(gòu)建的,該軟件于2018年由加州大學(xué)伯克利分校的AI研究人員首次發(fā)現(xiàn)。其核心技術(shù)GAN能夠通過識別真實圖像,創(chuàng)造自己的偽造品。比如將白天到夜晚的風(fēng)景照片或從黑白變?yōu)槿噬?/p>

 

但不管是出于獵奇,還對技術(shù)研發(fā)的準(zhǔn)確,這款軟件確實是濫用AI技術(shù)產(chǎn)生了惡劣的影響。如知名作家尼娜·揚科維奇(Nina Jankowicz)表示,DeepNude對世界各地的女性都有巨大影響,尤其是在俄羅斯等社會較為保守的國家。如果公開發(fā)表令人信服但虛假的裸照,受害者可能會失去工作,或者面臨伴侶暴力。

 

Sensity公司也表示,這些虛假的色情圖像或視頻很可能被用做勒索、騷擾的手段。

 

Deepfake威脅,正在肆虐

 

不僅是DeepNude,所有Deepfake軟件均是如此。

 

如波士頓大學(xué)法學(xué)教授 Danielle Citron 所說,“Deepfake已經(jīng)成為了攻擊女性強有力的武器。"

 

Deepfake深度造假軟件背后的核心技術(shù)都是生成式對抗網(wǎng)絡(luò)GAN。GAN通過生成器與鑒別器之間的相互Battle來生成逼真的虛假圖像、視頻或者語音。

 

自2017年,Deepfake首次被用于制作色情視頻后——神奇女俠下海事件,社交網(wǎng)絡(luò)便開始大量充斥著此類視頻,據(jù)統(tǒng)計,在所有Deepfake創(chuàng)作的視頻中,色情視頻占據(jù)了96%。隨著技術(shù)的不斷升級,Deepfake的逼真程度已經(jīng)達到了肉眼難以分辨的地步,同時它也開始被應(yīng)用到政治領(lǐng)域。如Donald Trump、Barack Hussein Obama, Elon Musk等名人政客的虛假換臉視頻已屢見不鮮。

 

據(jù)普林斯頓大學(xué)教授Jacob Shapiro最新研究結(jié)果顯示,2013年至2019年期間,社交媒體已累計發(fā)起96次政治運動,而其中,93%為原創(chuàng)內(nèi)容,86%放大了已有內(nèi)容,74%歪曲了客觀事實。而其目的多為詆毀政客、誤導(dǎo)公眾、激化矛盾等。

 

為了應(yīng)對Deepfake軟件帶來的威脅和挑戰(zhàn),2019 年,F(xiàn)acebook 斥巨資發(fā)起“Deepfake 檢測挑戰(zhàn)賽”(Deepfake Detection Challenge,DFDC)。今年Deepfake 檢測的識別準(zhǔn)確率已經(jīng)達到了 82.56%。

 

除此之外,學(xué)術(shù)界以及其他企業(yè)團隊也在研發(fā)Deepfake的檢測方式。但盡管檢測方式越來越多,準(zhǔn)確度越來越高,制造虛假視頻的趨勢依然沒有得到很好的抑制。

 

究其原因,其一可能是AI生成虛假內(nèi)容越來越方便,如DeepNude,只需要一張照片,人人都可以上手。而其二,如Sensity公司負責(zé)人所說,DeepNude目前還處于法律的灰色地帶。

 

因此,要想關(guān)上 Deepfake 潘多拉的魔盒,需要制度的約束和人心向善的引導(dǎo)。

 

引用鏈接:

 

https://www.buzzfeednews.com/article/janelytvynenko/telegram-deepfake-nude-women-images-bot

 

https://www.theverge.com/2020/10/20/21519322/deepfake-fake-nudes-telegram-bot-deepnude-sensity-report?scrolla=5eb6d68b7fedc32c19ef33b4

 

https://www.vice.com/en/article/kzm59x/deepnude-app-creates-fake-nudes-of-any-woman

 

聲明:本文源自網(wǎng)絡(luò)轉(zhuǎn)載,目的在于傳遞更多信息,不用于任何商業(yè)目的,文章版權(quán)歸原作者及來源所有,如有侵權(quán),請聯(lián)系刪除。

 

本文僅代表作者觀點,版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。

免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com