亚洲欧美日韩熟女|做爱高潮视频网址|国产一区二区三级片|国产Av中文字幕www.性色av|亚洲婷婷永久免费|国产高清中文字幕|欧美变态网站久re视频精品|人妻AV鲁丝第一页|天堂AV一区二区在线观看|综合 91在线精品

利用人工智能寫“新聞”?必須打標識!

2023-07-17

近日,國家網(wǎng)信辦等七部門聯(lián)合公布《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》),并表示自今年8月15日起正式施行。至此,類似ChatGPT這樣的生成式人工智能服務在我國的研發(fā)和應用有了規(guī)矩。

  為人工智能立法,是業(yè)界一直以來的呼聲。

  今年3月,特斯拉創(chuàng)始人埃隆·馬斯克、《人類簡史》作者尤瓦爾·赫拉利、圖靈獎得主約書亞·本吉奧等上千名人工智能專家、行業(yè)高管和相關學者曾聯(lián)名發(fā)表公開信,呼吁暫?!熬扌?a href="http://www.slzrb.cn/home">AI實驗”。所謂“巨型AI實驗”,包括類似ChatGPT這樣的生成式人工智能模型。不過,他們并不是呼吁放棄探索人工智能,而是希望通過暫停研究為監(jiān)管留出時間,避免不法分子利用已有的成果違法犯罪,因為“只有當我們能夠確信,AI體系的有利因素都是積極的,且風險都可控,一個強大的AI體系才能成熟”。

  從全球范圍看,《辦法》是針對生成式人工智能的首部專門立法,為中國發(fā)展生成式人工智能服務設定了底線,及時且必要。

這些內(nèi)容不得“生成”!

  根據(jù)《辦法》,“生成式人工智能技術(shù)”是指具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關技術(shù)。

  不難發(fā)現(xiàn),隨著生成式人工智能技術(shù)的快速發(fā)展,已有不法分子、部分“無知無畏”或“不明真相”的網(wǎng)民利用新服務和新技術(shù),炮制播虛假信息?;ヂ?lián)網(wǎng)上也出現(xiàn)了不少人工智能編寫的謠言,產(chǎn)生不良影響。

  例如,杭州有網(wǎng)民利用ChatGPT模仿新聞格式,編寫了“杭州取消車牌限行規(guī)定”的消息,結(jié)果被誤傳;廣東深圳某自媒體公司同樣利用人工智能軟件,編造了“甘肅一火車撞上修路工人,致9人死亡”等謠言。目前,相關當事人已被依法查處。

  如今,根據(jù)最新發(fā)布的《辦法》,利用生成式人工智能技術(shù)造假的行為從源頭有了約束。綜觀《辦法》,有數(shù)條規(guī)定明確對造假造謠行為說“不”,并要求利用人工智能編寫的內(nèi)容應當具備標識。

  首先,《辦法》規(guī)定有些內(nèi)容不得“生成”,包括“不得生成煽動顛覆國家政權(quán)、推翻社會主義制度,危害國家安全和利益、損害國家形象,煽動分裂國家、破壞國家統(tǒng)一和社會穩(wěn)定,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情,以及虛假有害信息等法律、行政法規(guī)禁止的內(nèi)容”。

  其次,在應用生成式人工智能服務時,要尊重他人合法權(quán)益,不得危害他人身心健康,不得侵害他人肖像權(quán)、名譽權(quán)、榮譽權(quán)、隱私權(quán)和個人信息權(quán)益。

  再次,人工智能生成的內(nèi)容應當便于他人識別。根據(jù)《辦法》,“提供者應當按照《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》對圖片、視頻等生成內(nèi)容進行標識”。

  從此前被查處的造假造謠案例看,部分當事人使用生成式人工智能服務編造了假消息,但假消息并沒有標識,結(jié)果被別有用心及不明真相的網(wǎng)民共同傳播,產(chǎn)生了不良后果。若生成式人工智能服務提供者能嚴格遵照《辦法》、對生成的內(nèi)容進行標識,那么被誤導的現(xiàn)象有望減少。

  還有,《辦法》明確了生成式人工智能服務提供者的責任:“發(fā)現(xiàn)違法內(nèi)容的,應當及時采取停止生成、停止傳輸、消除等處置措施,采取模型優(yōu)化訓練等措施進行整改,并向有關主管部門報告;發(fā)現(xiàn)使用者利用生成式人工智能服務從事違法活動的,應當依法依約采取警示、限制功能、暫?;蛘呓K止向其提供服務等處置措施,保存有關記錄,并向有關主管部門報告”。

  可見,服務提供者既要防止新技術(shù)生成有害內(nèi)容,也要審核生成的內(nèi)容,不能以提供技術(shù)服務的理由而對生成內(nèi)容放任不管。

  最后,違反《辦法》將承擔對應的責任。其中,拒不改正或者情節(jié)嚴重的服務提供者,可能會被責令暫停提供相關服務;若構(gòu)成違反治安管理行為的,依法面臨治安管理處罰;構(gòu)成犯罪的,會被依法追究刑事責任。

  國家網(wǎng)信辦有關負責人就《辦法》相關問題答記者問時表示,《辦法》既明確鼓勵生成式人工智能技術(shù)在各行業(yè)、各領域的創(chuàng)新應用,生成積極健康、向上向善的優(yōu)質(zhì)內(nèi)容,探索優(yōu)化應用場景,構(gòu)建應用生態(tài)體系;也要求提供者采取有效措施,提升生成式人工智能服務的透明度,提高生成內(nèi)容的準確性和可靠性。

鼓勵發(fā)展新技術(shù),也可以用AI管理AI

  《辦法》公布后,業(yè)界普遍認為很有必要。

  中國信息通信研究院政策與經(jīng)濟研究所所長辛勇飛表示,《辦法》是在區(qū)塊鏈、汽車數(shù)據(jù)、算法推薦、深度合成等立法之后,我國對新興領域立法的又一次探索?!掇k法》充分協(xié)調(diào)了發(fā)展與安全之間的關系,一方面提出了生成式人工智能發(fā)展的鼓勵措施,另一方面明確了生成式人工智能的法律底線,構(gòu)建了生成式人工智能精細化治理體系,有利于推動生成式人工智能健康有序發(fā)展。

  對外經(jīng)濟貿(mào)易大學數(shù)字經(jīng)濟與法律創(chuàng)新研究中心主任許可認為,作為全球范圍內(nèi)針對生成式人工智能的首部專門立法,《辦法》以鼓勵創(chuàng)新發(fā)展為基調(diào),以個人合法權(quán)益、公共利益、國家安全為底線,在原則理念和規(guī)制范圍上統(tǒng)籌發(fā)展與安全,不僅是監(jiān)管生成式人工智能的中國探索,也為全球人工智能治理開辟了新的道路。

  還有業(yè)界人士提出,《辦法》鼓勵生成式人工智能技術(shù)在各行業(yè)、各領域的創(chuàng)新應用,支持構(gòu)建應用生態(tài)體系,在這個生態(tài)體系中,也包含用人工智能管理人工智能?!氨热?,針對生成式人工智能服務中的圖像內(nèi)容,中國信通院牽頭啟動了《文檔圖像篡改檢測標準》制定工作,目標之一就是通過人工智能技術(shù),規(guī)范由生成式人工智能所產(chǎn)生的圖片等內(nèi)容?!睒藴事?lián)合編制方之一、合合信息智能創(chuàng)新事業(yè)部總經(jīng)理唐琪說。

  在圖像領域,“生成式造假”現(xiàn)象已經(jīng)引發(fā)關注:在金融行業(yè),不法分子可能會利用人工智能合成技術(shù)盜刷線上資金;在圖片市場,部分圖片供給方使用軟件自動生成海報等圖片,隱瞞來源并售賣給第三方,第三方在不知情的情況下進行商用,導致侵權(quán)……“通過設立檢測標準,有望用人工智能對抗違法行為?!碧歧髡f。

  他介紹,合合信息很早就開始利用人工智能技術(shù)進行圖片鑒別,發(fā)現(xiàn)該領域有很大的應用空間。例如,P圖是常見的圖像篡改手段之一,不少篡改結(jié)果無法通過人眼識別。但人工智能能夠分辨像素級的“細粒度”視覺差異,從而使技術(shù)辨?zhèn)纬蔀楝F(xiàn)實——人工智能可捕捉到圖像在篡改過程中留下的細微痕跡,并以熱力圖的形式展示圖像區(qū)域篡改地點。目前,相關研發(fā)成果已經(jīng)在銀行、保險等領域落地應用。

針對生成式人工智能技術(shù)產(chǎn)生的大量圖片,同樣無法依靠人眼,而是可以利用人工智能?!疤歧骱唵谓忉屃讼嚓P原理:”基于人工智能技術(shù)研發(fā)對應的識別模型,當輸入需要辨別的圖片后,模型可通過多個空間注意力頭(attention head)來關注空間特征,并使用紋理增強模塊,放大淺層特征中的細微偽影。最終經(jīng)過復雜的計算,判斷相關圖片到底是原創(chuàng)的還是生成的,包括是否為嫁接。

  他認為,經(jīng)濟社會發(fā)展不可能拒絕人工智能技術(shù),但需要建立可信的人工智能體系,需要更多企業(yè)和專業(yè)機構(gòu)的參與。一方面,各界都要遵守法律法規(guī),合法開發(fā)利用人工智能;另一方面,也要以技術(shù)戰(zhàn)勝技術(shù),“AI向善還是向惡而行?不法分子和守護者們每天都上演著無數(shù)次隱形的爭斗。哪一方的技術(shù)實力更強勁,將成為決定‘道高一尺’還是‘魔高一丈’的關鍵。”

本文僅代表作者觀點,版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。

免責聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com