滑鐵盧OpenAI:ChatGPT正走向失控
假如OpenAI有最想劃掉的經(jīng)驗(yàn),那么很有可能就是推出AI。 Classifier。
OpenAI作為震驚全球的ChatGPTR&D者,在AI時(shí)代獲得了無與倫比的關(guān)注。然而,就是這樣一家在AI領(lǐng)域很難期待的企業(yè),最近卻遭遇了滑鐵盧。
OpenAI于今年1月推出了AI應(yīng)用程序,可識(shí)別文本來源類型。 Classifier。OpenAI原本準(zhǔn)備用它來檢驗(yàn)一個(gè)文本的來源是人工智能編寫還是人類編寫。但是,它的表現(xiàn)出乎意料的糟糕。
AI Classifier的準(zhǔn)確性不僅不盡如人意,而且與其他不知名的小公司開發(fā)的工具相比,Classifier在短短半年內(nèi)就停止了服務(wù)。
知道自己臉上沒有光的OpenAI甚至把停止服務(wù)的通知藏在1月份發(fā)表的文章里,用內(nèi)容更新的方式編輯舊聞。
AI 目前,OpenAI還沒有有效的方法來控制ChatGPT對(duì)Classifier的影響,Classifier的失敗已經(jīng)從側(cè)面得到證實(shí)。
而且這個(gè)“停服小事”已經(jīng)淹沒在信息海洋中,并沒有引起大家的充分關(guān)注。
01 AI Classifier誕生背景:教育界的集體抵制
2022年11月底,ChatGPT一經(jīng)推出,就風(fēng)靡全球,短短5天就吸引了數(shù)百萬客戶,僅用兩個(gè)月就達(dá)到了1億多的月度活動(dòng),在沒有開通服務(wù)的大洋彼岸,甚至在沒有開通服務(wù)的大洋彼岸掀起了一股大模型進(jìn)化熱潮。無數(shù)中小企業(yè)改頭換面,套殼蹭流量,甚至在BOSS上誕生了ChatGPT運(yùn)營(yíng)、ChatGPT提示詞工程師等崗位。通過視頻、圖文等形式,一波又一波的新媒體人教網(wǎng)友如何通過AI賺錢。
B端公司更是學(xué)語言,一系列與AI相關(guān)的企業(yè)突然變成了當(dāng)紅炸雞。我還罵百度錯(cuò)過了移動(dòng)時(shí)代,后來我稱贊百度是一個(gè)有遠(yuǎn)見的長(zhǎng)期主義者。在一些“大工廠”中,所有員工都敞開心扉,集體研究如何使用大模型以及如何與當(dāng)前業(yè)務(wù)相結(jié)合。甚至 一些汽車公司表示,將大模型集成到汽車系統(tǒng)中,也是一個(gè)正在考慮的問題。
而且,生活在ChatGPT核心區(qū)域的兒童,成為第一批通過ChatGPT受益的人。根據(jù)Study的一項(xiàng)調(diào)查,超過89%的學(xué)生通過ChatGPT做作業(yè),這引起了教育界的普遍關(guān)注。而且這些擔(dān)憂,還包括一些老師的驚訝。一位美國(guó)教師表示,試圖用ChatGPT來評(píng)估學(xué)生的工作,發(fā)現(xiàn)ChatGPT很快帶來了比自己更詳細(xì)、更有用的反饋。
與宣傳AI能力的科技作家相比,教育界的焦慮也體現(xiàn)在傳統(tǒng)教育思維可能被打破的問題上。根據(jù)美國(guó)權(quán)利法案研究所的一項(xiàng)投票,52.8%的人認(rèn)為ChatGPT應(yīng)該被禁止進(jìn)入教室。人工智能被認(rèn)為是對(duì)傳統(tǒng)學(xué)習(xí)的威脅。另外,ChatGPT也有被抄襲、給出錯(cuò)誤答案和誤導(dǎo)的嫌疑。有些人留言警告說,ChatGPT已經(jīng)開始取代批判性思維。
據(jù)報(bào)道,包括美國(guó)在內(nèi)的許多學(xué)校都禁止在學(xué)校設(shè)備和互聯(lián)網(wǎng)上瀏覽ChatGPT。英國(guó)倫敦帝國(guó)理工大學(xué)、劍橋大學(xué)等頂尖大學(xué)也發(fā)表聲明,警告學(xué)生不要用ChatGPT作弊。至于ChatGPT是改變教育還是摧毀教育,網(wǎng)上有很多爭(zhēng)論,但最常被提及的是,這種工具的依賴性會(huì)破壞人們的批判性思維和創(chuàng)造力。
另外,科學(xué)界的聲音也把矛頭對(duì)準(zhǔn)了ChatGPT?!犊茖W(xué)》雜志明確禁止將ChatGPT納入合并者,并且不允許使用ChatGPT在論文中生產(chǎn)的文本。《自然》雜志表示,大型語言模型產(chǎn)生的文本可以用于論文,但不能列入論文合并者。
然而,除了文本之外,AI制作的圖片和視頻更具欺騙性,之前AI變臉帶來的道德問題也被重新提及。在這種情況下,如何區(qū)分內(nèi)容來自人類或AI變得非常重要。
02 拜登:每個(gè)人都要為AI生產(chǎn)的內(nèi)容添加一個(gè)水印。
如果說教育和科研界對(duì)ChatGPT的擔(dān)憂更多的是用戶的使用,那么國(guó)家政策的阻力和對(duì)安全性的擔(dān)憂對(duì)OpenAI的生存構(gòu)成了巨大的挑戰(zhàn)。
今年3月底,意大利個(gè)人數(shù)據(jù)保護(hù)局宣布暫時(shí)禁止使用ChatGPT,并表示已經(jīng)對(duì)ChatGPT背后的OpenAI企業(yè)進(jìn)行了調(diào)查,這也是歐美第一個(gè)禁止使用ChatGPT的國(guó)家。此后,包括德國(guó)、加拿大等國(guó)家也開始對(duì)OpenAI問題進(jìn)行調(diào)查。
甚至,包括圖靈獲得者約書亞·本吉奧、特斯拉首席執(zhí)行官埃隆·馬隆·馬隆。 史蒂夫,蘋果創(chuàng)始人?在AI領(lǐng)域,沃茲尼亞克等1000多名企業(yè)家、學(xué)者和高管發(fā)出公開信,建議所有AI研究室立即停止訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng),至少持續(xù)6個(gè)月,并建議各大企業(yè)和機(jī)構(gòu)共同開發(fā)適合AI研發(fā)的安全協(xié)議。與此同時(shí),信中還提到,各國(guó)政府應(yīng)在必要時(shí)介入。
雖然ChatGPT并沒有被禁止在中國(guó)、俄羅斯和伊朗等國(guó)家,但OpenAI主動(dòng)屏蔽了相關(guān)地區(qū)用戶的注冊(cè)許可。到目前為止,包括美國(guó)在內(nèi)的許多國(guó)家已經(jīng)開始調(diào)查OpenAI的數(shù)據(jù)安全和虛假信息。一些政治家甚至擔(dān)心像ChatGPT這樣的應(yīng)用程序會(huì)操縱選舉。
微軟、谷歌、OpenAI等公司于今年7月26日發(fā)布聯(lián)合公告,宣布成立前沿模型論壇(Frontier Model Forum),致力于確保前沿人工智能AI模型的安全、負(fù)責(zé)任地開發(fā)。這一行動(dòng)顯然與人們要求美國(guó)加強(qiáng)對(duì)AI的監(jiān)管呼吁有關(guān)。
微軟總裁布拉德·史密斯表示:“開發(fā)AI技術(shù)的企業(yè)有責(zé)任確保其安全性和可靠性,并且仍然處于人類的控制之下?!監(jiān)penAI負(fù)責(zé)全球事務(wù)的副總裁安娜·馬坎朱也發(fā)表聲明稱:這是一項(xiàng)緊迫的工作。這個(gè)論壇有實(shí)力快速付諸行動(dòng),促進(jìn)AI的安全。”
然而,這一措施仍然受到質(zhì)疑,科技公司被指控試圖在監(jiān)管部門之前制定AI開發(fā)和部署規(guī)則。抗議者表示,科技行業(yè)沒有遵循“自我控制承諾”的歷史。
在成立論壇之前,拜登與前沿模型論壇的創(chuàng)始人見面,白宮督促相關(guān)企業(yè)采取“保障措施”。會(huì)議承諾增加人工智能生產(chǎn)內(nèi)容的數(shù)字水印,以便更容易發(fā)現(xiàn)深度偽造等誤導(dǎo)性材料。然而,這一措施仍然被美國(guó)媒體指責(zé)太慢。
早在今年6月,歐盟立法者就承諾了包括ChatGPT等功能在內(nèi)的一系列規(guī)則法案,其中必須披露人工智能產(chǎn)生的內(nèi)容。
03 因特網(wǎng)已被大規(guī)模污染,誰也逃不掉。
如果說政界和教育界的焦慮是前瞻性的,那么互聯(lián)網(wǎng)上被人工智能污染和回收的垃圾信息正在困擾著每一個(gè)互聯(lián)網(wǎng)用戶。
最近,這樣的事件在中國(guó)互聯(lián)網(wǎng)上流傳。有用戶問Bing象鼻山有沒有纜車,Bing給出了看似專業(yè)的答案,甚至有營(yíng)業(yè)時(shí)間和票價(jià)。然而,當(dāng)網(wǎng)民打開參考鏈接時(shí),他們發(fā)現(xiàn)參考鏈接的受訪者仍然是AI,這在知乎上的許多答案都沒有得到證實(shí)。
但是在海外,美國(guó)著名科幻電子雜志《克拉克世界》的總編輯 尼爾·克拉克說,今年早些時(shí)候,這本雜志不得不暫時(shí)停止接受在線投稿,因?yàn)樗粩?shù)百個(gè)人工智能產(chǎn)生的故事吞噬了。同樣,洛桑聯(lián)邦理工學(xué)院的研究人員也在網(wǎng)上聘請(qǐng)了自由撰稿人,總結(jié)了《新英格蘭醫(yī)學(xué)雜志》上發(fā)表的摘要,發(fā)現(xiàn)超過三分之一的人使用了人工智能產(chǎn)生的內(nèi)容。
更極端的是,有網(wǎng)友發(fā)現(xiàn)AI會(huì)制作假的科普?qǐng)D片,甚至制作假新聞。為了吸粉引流,江西一男子曾使用ChatGPT生成假新聞,聲稱“鄭州雞排店突然出現(xiàn)血案”,內(nèi)容被瘋狂轉(zhuǎn)發(fā)。為了獲得流量,深圳一家自媒體公司通過 ChatGPT 對(duì)過時(shí)的社會(huì)熱點(diǎn)新聞進(jìn)行修改,炮制假新聞在平臺(tái)上發(fā)放收益,最終被警方抓獲。
根據(jù)美國(guó)民間新聞評(píng)級(jí)公司NewsGuard的調(diào)查,世界上至少有365家AI生成新聞媒體。幾乎沒有人對(duì)這些網(wǎng)站進(jìn)行監(jiān)督,語言包括13種語言,如漢語、英語和法語。站主通過低質(zhì)量、虛假的內(nèi)容獲得流量,銷售廣告空間,從而獲得利潤(rùn)。該機(jī)構(gòu)還發(fā)現(xiàn),ChatGPT-當(dāng)3.5被提醒時(shí),80%的情況下會(huì)產(chǎn)生錯(cuò)誤的信息和虛假的敘述,ChatGPT-在這種情況下,比例上升到100%。另外,該機(jī)構(gòu)還聲稱,中文因特網(wǎng)中錯(cuò)誤的AI信息將超過英文因特網(wǎng)。
更令人擔(dān)憂的是,AI不僅侵入了網(wǎng)絡(luò)新聞,還稀釋了購(gòu)物網(wǎng)站評(píng)價(jià)的真實(shí)性。截圖顯示,有人上傳了AI在亞馬遜對(duì)一款產(chǎn)品的評(píng)價(jià)中產(chǎn)生的評(píng)價(jià)?!白鳛橐粋€(gè) AI 語言模型,我沒有親自使用過這個(gè)產(chǎn)品,但是根據(jù)它的功能和用戶的評(píng)價(jià),我可以自信地給它打電話。 5 星”。

04 AI的準(zhǔn)確性需要消耗大量的資源,而OpenAI需要降低成本
ChatGPT顯然是一個(gè)充滿活力的物種,但是OpenAI周圍的麻煩越來越多。與國(guó)內(nèi)大模型和AIGC熱潮不同,越來越多的外國(guó)機(jī)構(gòu)和媒體質(zhì)疑ChatGPT對(duì)環(huán)境的不利影響。
模型精度與計(jì)算率密切相關(guān)。模型的大小由其參數(shù)和精度決定。精度的降低不僅會(huì)擴(kuò)大計(jì)算率的承載能力,還會(huì)在一定程度上降低性能。計(jì)算率對(duì)應(yīng)能耗,資源背后是成本和環(huán)境問題。因此,一個(gè)精確的通用大語言模型背后消耗的資源可能是巨大的。
根據(jù)加州大學(xué)研究人員的報(bào)告,微軟數(shù)據(jù)中心在GPT-3實(shí)踐中使用了約70萬升淡水。當(dāng)ChatGPT用于回答問題或生成文本任務(wù)時(shí),20-50個(gè)簡(jiǎn)單的對(duì)話會(huì)消耗一瓶500毫升的水(服務(wù)器中的能量會(huì)轉(zhuǎn)化為熱量,需要用水冷卻)。知名 計(jì)算機(jī)專家吳軍描述,每次ChatGPT訓(xùn)練,相當(dāng)于3000輛特斯拉在一個(gè)月內(nèi)完成了21年的訓(xùn)練。
斯坦福人工智能研究所依據(jù)(HAI)《2023年人工智能指數(shù)報(bào)告》發(fā)布,對(duì)于一個(gè)普通的美國(guó)家庭來說,訓(xùn)練像OpenAIGPT-3這樣的人工智能模型所需的能量就足以使用數(shù)百年。
但是,根據(jù)方正證券的一份調(diào)查報(bào)告,如果Open AI要想通過ChatGPT獲利,就必須通過降低精確度來控制計(jì)算成本,并提高用戶的支付率?,F(xiàn)在,ChatGPT的大部分用戶都在使用GPT-3.5,這是免費(fèi)的,而且占用率很高。
所以,無論從資源環(huán)境的層面,還是從項(xiàng)目成本管理的角度來看,降低GPT-3.5的精度似乎都是一件值得選擇的事。
此前有媒體報(bào)道,GPT-4疑似愚蠢。有外國(guó)網(wǎng)友表示,雖然GPT-4反應(yīng)迅速,但其導(dǎo)出質(zhì)量更像是GPT-3.5。 。GPT-4bug代碼產(chǎn)生較多,答案也缺乏深度和分析,其處理復(fù)雜程度相似的問題的結(jié)果甚至不如其前身GPT-3或GPT-3.5。
OpenAI為了節(jié)約成本,直接引起了以次充好的質(zhì)疑。
05 OpenAI是否打開了魔盒或百寶箱,最終還是要看人類自己。
目前OpenAI有很多棘手的問題需要處理,包括生存和發(fā)展。所有這些問題都迫切需要ChatGPT來重建人類的信任,信任的第一步是可追溯性。
從教育的角度來看,越來越多的人需要區(qū)分什么是來自AI,什么是來自人類。除了OpenAI自主研發(fā)的AI。 除了Classifier,普林斯頓大學(xué)的中國(guó)學(xué)生開發(fā)的軟件 GPTZero也受到了高度期待,但是效果并不理想。另外,包括Turnitin在內(nèi)的軟件也有AI檢測(cè)功能,但是識(shí)別準(zhǔn)確度仍然不夠高。
有人把目前的AI技術(shù)爆炸描述為“軍備競(jìng)賽”,但似乎我們現(xiàn)在確實(shí)面臨著新的“核彈”。雖然OpenAI不同的高管在很多地方解釋了安全的重要性,但如何實(shí)現(xiàn)這一承諾還有很長(zhǎng)的路要走。
實(shí)際上,為了保證ChatGPT的答案不會(huì)太離譜,OpenAI 訓(xùn)練數(shù)據(jù)需要大量的準(zhǔn)確性和清晰的來源。斯坦福的研究表明,如果使用AI產(chǎn)生的數(shù)據(jù)訓(xùn)練頻率超過5次,模型就會(huì)崩潰(性能下降,使用困難)。換句話說,如果模型不能提供新鮮和人類注明的數(shù)據(jù),其導(dǎo)出質(zhì)量將受到嚴(yán)重影響。
不幸的是,目前AIGC的內(nèi)容無處不在,OpenAI沒有辦法大規(guī)模分離AI已經(jīng)產(chǎn)生的內(nèi)容。AI OpenAI對(duì)此事無能的注釋是Classifier的失敗。
雖然越來越多的人期待數(shù)字水印技術(shù)能夠?yàn)镃hatGPT等人工智能安裝護(hù)欄,包括美國(guó)政府,但一個(gè)遺憾的事實(shí)是,OpenAI本身已經(jīng)研究和探索了數(shù)字水印技術(shù),OpenAI還沒有有效地利用數(shù)字水印來區(qū)分AI生產(chǎn)的文本。
對(duì)未來的情況,也許我們只能祈禱,大語言模型將成長(zhǎng)為核電廠,而非核導(dǎo)彈。
本文來自微信微信官方賬號(hào)“車云”(ID:cheyunwang),作者:車云菌,36氪經(jīng)授權(quán)發(fā)布。
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請(qǐng)?jiān)谖闹凶⒚鱽碓醇白髡呙帧?/p>
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請(qǐng)及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com