警醒,歷史上最狡猾的大騙局,許多人已經受害
杰弗里·欣頓是“人工智能之父”他做了一個世界末日的推測:
人工智能可能會對人造成巨大威脅,因為“很難找到一種方法來防止壞人利用它做壞事”
不幸的是,越來越多的壞人掌握了人工智能。
福州某科技公司法人代表郭先生,4月20日11點40分左右遭遇高端欺騙。
一個朋友突然做了一個微信視頻:
我的一個朋友老郭在外地投標,需要430萬元的保證金。你看能不能先去你的業(yè)務賬號幫忙貼一下?
朋友說錢已經交了,還發(fā)了銀行轉賬收據(jù)截圖。因為是視頻通話,郭先生沒有核實錢是否到賬,直接給對方轉了430萬 的賬戶。
之后郭先生給朋友打電話說“事情做好了”對方很驚訝,回應完全不在話下。
9分鐘,430萬沒了!郭先生 坑是典型的AI詐騙。
這一招分三步走:
犯罪分子利用AI機器人騷擾電話,獲取目標的聲音素材,然后偽造聲音;
偷目標 找到受害者;
利用AI變臉技術,與受害者視頻聊天,贏得信任,實施詐騙。
這種詐騙手段環(huán)環(huán)相扣,耗時耗力,防不勝防。這意味著詐騙犯罪升級,進入AI智能、定制化的時代。
傳統(tǒng)因特網(wǎng)“發(fā)音”面對AI詐騙,“打視頻”的反欺詐方法基本無效。更可怕的是,越來越多的騙子掌握了AI詐騙!
公開資料顯示,2021年以來,多個省份出現(xiàn)AI詐騙不當牟利案件。中國互聯(lián)網(wǎng)協(xié)會5月24日表示,使用“AI變臉”AI變聲”等進行詐騙、誹謗并不少見。
AI詐騙不僅僅是幾百萬“肥肉”有成千上萬個“蒼蠅肉”大學同學、親戚、供應商等視頻借用案例層出不窮。
如果你認為你從不借錢,你就贏了,那就太天真了不要被抓住。
騙子裝扮成領導,要求下屬立即匯款、很少有人能因為資金周轉等緊急原因承受轉賬的壓力。什么更有甚者,騙子直接假冒了孩子、父母車禍住院等借口,利用親情出軌。
2006年,中國臺灣省詐騙集團成立20多年,將目光投向互聯(lián)網(wǎng)普及不久的大陸。他們在東南亞等國家設立詐騙基地,招募員工進行人員設置言論包裝等統(tǒng)一培訓。
到底是誘導戀愛還是裸聊“殺豬盤”非法購買彩票網(wǎng)上賭場和貸款欺詐等發(fā)明開始席卷大陸。
電信詐騙已經成為懸在14億人頭上的尖刀。甚至有人開玩笑說,沒接到過詐騙電話的人,買彩票都能中獎。
然而,大多數(shù)人仍然不 我不太了解電信詐騙。在傳統(tǒng)認知中,他們的出軌對象大多經不起誘惑、實踐經驗較少的“接收者”和一些老年人誰不不要經常上網(wǎng)。
比如上世紀80年代最著名的尼日利亞王子來信,還有最近那封讓人忍俊不禁的信“上門槍決”通知短信。這些夸張的劇本似乎只是為了選擇那些“缺乏基本的識別能力”的人。
但正如微博大V@所有工作人員都說:“你還沒有 不被騙,不是因為你聰明,也不是因為你沒錢,而是因為它適合你‘劇本’還在路上。
只要給幾張照片和幾秒鐘的聲音,就可以復制了“假人”AI詐騙,以一種極其恐怖的方式,讓所有人都難逃一死。
湖北網(wǎng)警巡邏執(zhí)法發(fā)布的消息顯示,AI技術新騙局詐騙通過率接近100%,其通過率高、涉案金額大、詐騙速度驚人。
例如,在安徽安慶經開區(qū)的一起AI詐騙案中,詐騙分子僅用了一段9秒的智能AI變臉視頻就冒充了“熟人”成功從受害人處騙取245萬元。
什么更令人毛骨悚然的是信息被泄露、隱私不安全的普遍現(xiàn)實為人工智能欺詐創(chuàng)造了條件“天然苗床”
2月15日,一名“幾乎無一幸免,涉嫌泄露45億條電商或快遞信息”的新聞沖上熱搜。有網(wǎng)友說:“十年前收到的資料都被翻出來了。
在這方面,每個人都可以 忍不住吐槽:“要有多強的防范意識,才能想到和你視頻聊天的親朋好友。阿倫 你不是一個活生生的人嗎?需要有多強的隱私意識才能保證自己的信息不被泄露或竊?。?/span>
AI詐騙的降維攻擊也引起了社會的廣泛關注和一些恐慌。AI詐騙全國爆發(fā)”這個話題已經達到了熱搜的巔峰,閱讀量超過2億。
隨后,公安機關專門辟謠稱,目前AI詐騙案件占比仍然較低。同時承諾關注這種新的犯罪方式,加大技術反擊和預防宣傳力度。
數(shù)據(jù)顯示,2022年公安部門破獲46起.電信網(wǎng)絡詐騙案件4萬起,涉案資金被緊急阻止超過3180億元。從詐騙案件的量級和涉案金額來看,還是一個社會“頑癥”
一個悲觀的預期是,新的AI欺詐的到來和迭代的加速可能會使“大家提高警惕,全民防騙”成為未來社會不得不面對的嚴重問題之一。
四月底的一天,一個名叫詹妮弗的美國人·D 斯特凡諾 她的媽媽接到了一個奇怪的電話。
媽媽,救命!大女兒Briana似乎遇到了大麻煩。
詹妮弗驚呆了,一個下賤的男人威脅道:如果你報警,你就再也見不到她了!
掛了電話后,身邊的朋友都勸她報警。詹妮弗渴望贖金是因為“女兒”哭聲太真實了,令人心碎。幸運的是,我女兒碰巧打電話作弊“不攻自破”
但是關注的詹妮弗還是很驚訝:即使隔著一棟樓,我也贏了不要讓我的孩子進來她在哭。
詹妮弗從來沒有想過,AI技術的飛速發(fā)展已經比一個母親更了解自己的孩子。騙子可能每月支付不到5美元。
2017年,它被稱為“Deepfakes“社交平臺客戶使用人工智能技術發(fā)布視頻剪輯,并將色情演員變成蓋爾·加朵、泰勒·斯威夫特、斯嘉麗·約翰遜等名人引起強烈反響。
自此,人工智能變聲變臉技術走進大眾 的視野,被稱為“深度偽造”Deepfake)
2018年,美國的犯罪分子主要利用非法機器人電話冒充慈善機構或谷歌數(shù)據(jù)服務代理進行詐騙。
但是,機器人語音系統(tǒng)通常有一個卡片屏幕、音質機械化、多輪對話“鬼打墻”等問題,“虛張聲勢”能力有限。
此后,AI變聲器迅速發(fā)展到了復制的水平。2019年3月,一名詐騙犯冒充英國能源集團老板,強烈要求該公司首席執(zhí)行官立即向匈牙利供應商銀行賬戶轉賬22萬歐元。
這位高管毫不猶豫地照做了,因為大老板的語氣一如既往,甚至他“微妙的德國口音”都沒有瑕疵。這一事件被稱為全球人工智能詐騙第一案。
事實上,在美國、在AI技術普及的歐洲等發(fā)達國家,AI詐騙早已先行一步。
過去一年,美國AI詐騙同比增長50%到75%根據(jù)聯(lián)邦調查局的年度報告,2022年,美國網(wǎng)絡欺詐損失達103億美元,創(chuàng)五年新高,而針對老年人的AI語音欺詐是高發(fā)區(qū)。
在過去的一年里,26%的小公司和38%大公司都經歷過嚴重的偽造欺詐,”世界經濟論壇的研究和分析負責人布魯內曼說。她甚至預測,2026年,將超過90%黑客內容將由AI生成。
AI技術的快速升級不僅讓聲音發(fā)生了變化、I辨別真?zhèn)巫兊迷絹碓诫y了。
加州大學伯克利分校教授法里德Farid表示,一兩年前,生成AI聲音需要大量音頻數(shù)據(jù),而現(xiàn)在只需要十秒鐘的短視頻或音頻。采集人臉信息比較簡單,一張照片就可以實現(xiàn)。
相應的AI程序服務費從每月5美元到幾百美元不等??膳碌氖?,任何人都可以從中從事非法活動。
AI詐騙的對象包括從老人到精英,從普通人到明星偶像,甚至有規(guī)范章程的商業(yè)公司和學校,很容易被招進來。
更智能的AI技術也讓欺騙變得更加花哨,難以防范。
AI可以通過信息收集和大數(shù)據(jù)分析進行智能選擇“易騙群體”比如金融詐騙,經常收集投資信息的群體會成為潛在目標。
甚至AI可以分析目標社交網(wǎng)絡,以掌握其個性化表達、人際關系、愛好和其他生活方式,來實現(xiàn)“詐騙劇本”的定制化。
法里德驚呼道:這太可怕了,就像一場完美的風暴,所有的條件都會導致大災難。
更可怕的是,雖然風險不言而喻,但AI語音視頻合成技術依然滿天飛。AI競爭,科技巨頭,也在不斷加碼。
今年1月,微軟團隊發(fā)布了VALLAI語音生成模型-E。它只需要3秒鐘來指定材料,和揚聲器 的聲音可以準確模擬,甚至環(huán)境背景聲音也可以準確還原。
AI簽名,AI聲音再現(xiàn),AI變臉…這些新技術最初是創(chuàng)造美麗和便利的代表。
然而,當這種高端技術變得廉價易得,并被不法分子惡意利用時,無數(shù)人和機構的財產、信息和真正的安全就像“裸奔”同樣的,會有多大的風險?
AI詐騙在全球范圍內的爆發(fā),無疑給人類敲響了警鐘。
清華大學教授沈陽說:現(xiàn)在已經達到了很大的規(guī)模、聚焦AI風險關鍵期。
其實對AI詐騙的警惕和治理方案早就在路上了。
美國安全中心發(fā)布的《人工智能與國家安全》明確將人工智能偽造技術列為威脅國防安全的關鍵技術。中國也在逐步處理其潛在的安全風險,包括政策管理和技術限制。
但AI造假似乎是神仙“小強”
例如,美國美國聯(lián)邦貿易委員會近年來加強了對非法機器人手機的監(jiān)管,但數(shù)據(jù)顯示,2019年,美國民眾收到的“機器人騷擾電話”總數(shù)超過500億次,即每個美國人平均每月至少接收15次“機器人騷擾電話”
這是一個兩難的問題——美國不斷升級立法打擊電信詐騙,但機器人手機數(shù)量屢創(chuàng)新高。
根本原因是護欄建設的速度在法律法規(guī)的制定和推廣中可以 跟不上AI技術的迭代和傳播速度。工業(yè)與人對AI傷害的反應也容易變慢。
連AI騙局都超過了“詐騙”范圍,涌向人類社會的每一個角落。
3月,一群來自中途的特朗普“被捕”遍布全球。一覺醒來,看到美國前總統(tǒng)被警察包圍,躺在地上,你會覺得不可思議。

然而,這只是網(wǎng)站創(chuàng)始人艾略特的一張圖片·希金斯精心制作“AI假照片”雖然他的賬號被封了,但當時大家都非常震驚和驚訝,這成了一個“笑話”
更像是人工智能騙局 區(qū)分人和真實感情的能力“嘲弄”很快,大家經歷了一場更嚴重的大戲。
5月22日,五角大樓周圍發(fā)生爆炸的圖片廣為流傳。這張假照片的流行甚至引起了標準 窮人和窮人標普500指數(shù)瞬間漲跌。
假新聞、假圖案在中國也沸騰了。
5月7日,甘肅省平涼市公安局網(wǎng)安大隊成功破獲一起AI詐騙案。罪犯利用ChatGPT偽造“今天早上,一輛火車撞上了甘肅的一名公路工人,造成9人死亡”假消息,立刻得到1個多億.5萬次點擊率。
5月24日,受一篇名為《科大訊飛有重大風險的警告》的文章影響,科大訊飛 美國的股價也迅速下跌。公司緊急回應,股票下跌是一個生成性AI寫的假話“短文”引起的。
人們越來越害怕發(fā)現(xiàn)自己被AI放在了一個地方“沒有真相的時代”
偽造甚至成了一件常見而必要的事情“謀生手段”國外一份調查報告指出,49個假新聞網(wǎng)站都是AI做的。而且這些數(shù)據(jù)受眾群體龐大,粉絲超過10萬。
打假熱潮無處不在,普通人和明星更難阻止。
一方面幾十塊錢“AI變臉教程”很受歡迎;另一方面,在地鐵上“AI一鍵脫衣”散布謠言的女人不能抱怨。打扮成“楊冪”迪麗熱巴”成龍”等明星直播賣貨更是肆無忌憚。
面對鋪天蓋地的“AI孫燕姿”合成視頻,佛教徒斯蒂芬妮別無選擇,只能說:“你和一個每隔幾分鐘就發(fā)布新專輯的人‘人’還有什么好爭的?
真相被“編造”I這已經夠可怕了,人們可以 分不清,讓現(xiàn)實越來越亂。
4月13日,索尼世界攝影大獎頒獎典禮上,大獎得主沖上舞臺,奪下話筒,痛心地說是艾偽造的。他的反問發(fā)人深省。如果索尼世界攝影獎的評委能夠 不能辨別照片的真假,別人還能做什么?
當人工智能騙局從專業(yè)水平開始,“大眾化”熟悉的親友每日新聞權威知識眼見為實原理,甚至集體記憶等,原本刻在骨頭里的“信心”都被一一顛覆。
人工智能控制,任重道遠。歸根結底,人類離不開真理,就像鐘表離不開指針一樣。
本文僅代表作者觀點,版權歸原創(chuàng)者所有,如需轉載請在文中注明來源及作者名字。
免責聲明:本文系轉載編輯文章,僅作分享之用。如分享內容、圖片侵犯到您的版權或非授權發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com