有了ChatGPT,讀書還有用嗎?
ChatGPT上半年問世,人工智能潛力呈現(xiàn),為許多職業(yè)帶來了一場生存危機的討論。GPT可通過律師和工程師資格考試,撰寫大學論文不能不及格,甚至可以“理解”笑話。它可以回答每個人的問題,組織生動的語言結(jié)構(gòu),模仿各種語言特征;大語言模型和圖像生成 AI 將Midjourney等技術(shù)結(jié)合起來,可以讓那些完全沒有接受過藝術(shù)訓練的人,用一句話“創(chuàng)造”出驚人的藝術(shù)形象。
事實上,ChatGPT的本質(zhì)是大語言模型。(LargeLanguage Model,LLM)疊加生成人工智能。大語言模型,顧名思義,就是大,用大量的語素,用機器學習訓練一個計算機模型。生成是指在對話中以預(yù)測的方式呈現(xiàn)最有可能的語素聯(lián)系。
對于知識“加工”和“消費”的人來說,大語言模型和生成人工智能的能力是巨大的。大量的語素數(shù)據(jù)、深度神經(jīng)網(wǎng)絡(luò)和巨大的計算能力相當于“鋪平”整個來自互聯(lián)網(wǎng)的知識,然后通過人機互動進行“自組裝”。
就計算邏輯而言,ChatGPT 相當于一個更強大的搜索引擎。谷歌、百度等普通搜索引擎,通過爬蟲“扒”整個互聯(lián)網(wǎng)信息,通過復雜的算法進行排序。人工智能使用機器學習的方法相當于用預(yù)測的方式整理出這些被扒出來的信息,符合語言邏輯。知識加工變得更加方便快捷,消費變得更加簡潔明了——有時候甚至太簡單,給了考試論文作弊的機會。
針對這一點,技術(shù)樂觀主義者認為,既然機器從現(xiàn)在開始可以產(chǎn)生的內(nèi)容可能不需要大多數(shù)人的大腦來實現(xiàn),就像搜索引擎取代了圖書館的收藏卡和計算器來代替珠算一樣。的確,即使是那些需要大量重復文字工作的人,或者機械列舉、整理工作, AI 不要介入最后的決定,的確還能提供相當大的生產(chǎn)力,幫助人類加工和消費知識。
所以,讀書還有用嗎?高校、研究機構(gòu)的人員,也能下班嗎?
01 機器可以“學到”什么
大語言模型和生成人工智能給未來的知識“生產(chǎn)者”帶來了一個不可回避的話題:什么是知識?如何生產(chǎn)多樣、公平、真實的知識?
人工智能的“學習”能力令人驚嘆。當前的大語言模型和人工智能應(yīng)用,都離不開機器學習作為其背景?!皩W習”二字,本質(zhì)上是利用大量的數(shù)據(jù)訓練來預(yù)測模型,并在預(yù)測的準確性和普遍性上找到平衡。這一預(yù)測實際上是基于當前的知識,語言模型的預(yù)測,也是基于當前語言之間的聯(lián)系。例如輸入“紅燒”,機器預(yù)測“肉”;接著,根據(jù)更多的輸入,如地點、人、習慣等,給出更準確的預(yù)測,如“外婆做的紅燒牛肉”等。
這一預(yù)測是如何實現(xiàn)的?眾所周知的坐標系是二維的。舉例來說,在整個人群中,身高和體重有一個大致的關(guān)系,給出身高,機器預(yù)測一個平均體重,就是基于當前數(shù)據(jù)的預(yù)測。再次倒入另一個層次,比如性別,那就成了三維坐標,男女的預(yù)測也會有所不同。這樣,數(shù)據(jù)的維度就可以是無限的,機器學習的模型就是在人腦無法想象的多維空間中找到這種聯(lián)系,并不斷優(yōu)化每個維度之間的權(quán)重。舉例來說,身高對體重的預(yù)測“有多重要”,可在大量數(shù)據(jù)輸入后進行調(diào)整。
因此,基于機器學習的人工智能將各個維度的數(shù)據(jù)與更高維度的空間聯(lián)系起來,具有發(fā)現(xiàn)數(shù)據(jù)之間潛在聯(lián)系的能力,并“學習”現(xiàn)實中不存在但可能存在的一些聯(lián)系。在語言模型中,人工智能還可以學習不同的語言特征,探索當前文字中的“本質(zhì)”和“問題”。
資料越大,模型越完善,其運算挖掘能力也越高。類似于 BERT、GPT 這種方法起源于大型機構(gòu) AI,被很多人認為已經(jīng)到了技術(shù)的“拐點”,量變產(chǎn)生質(zhì)變也不是沒有道理的——這對知識生產(chǎn)者來說是一件好事。然而,大模型也存在一些問題。模型越大,問題越銳利,尤其是涉及到知識的多樣性、公平性和真實性。
02 如何才能產(chǎn)生真正公正的知識?
新知識可以從目前的知識聯(lián)系和新模式中獲得,這是從人和機器層面建立起來的。然而,現(xiàn)有的知識是否足夠?充分嗎?公平嗎?如果目前的知識基礎(chǔ)不足,甚至有偏見,那么在此基礎(chǔ)上建立的新知識也會帶來誤差。
自從機器學習AI投入大規(guī)模應(yīng)用以來,學者們一直在不斷揭示這些模型的內(nèi)在偏見:性別歧視、種族歧視、違背倫理輸出等。開發(fā)人員用各種補丁和糾正偏差來填補,但大多數(shù)問題都隱藏在數(shù)據(jù)生產(chǎn)和訓練過程中,AI的偏見也體現(xiàn)和放大了社會偏見。
另外一個問題是數(shù)據(jù)的質(zhì)量。機器學習不僅涉及到訓練模型的能力,還涉及到數(shù)據(jù)的質(zhì)量和數(shù)量?,F(xiàn)有的R&D流程,對模型的性能有更多的強調(diào)甚至迷信,反而會忽略更低層次的信息來源問題。如今,大多數(shù)數(shù)據(jù)都依賴于人工清理和格式,包括數(shù)據(jù)分類、標記等。許多情況下,這一制作數(shù)據(jù)的過程是不透明的,甚至是潦草的。舉例來說,大型企業(yè)AI開發(fā)的背后,是大量“臟亂”的人工外包給欠發(fā)達地區(qū)的“AI工廠”。這一過程一方面存在勞動倫理問題,另一方面也對數(shù)據(jù)質(zhì)量提出了挑戰(zhàn)。
在大模型時代,這個問題可能會被隱藏得更深:并不是每個研究人員或團隊都有能力從0開始開發(fā)AI模型,尤其是大語言、大圖像模型,大部分都是在現(xiàn)有模型的基礎(chǔ)上進行微調(diào)。大模型本身的問題和誤差會轉(zhuǎn)移到更多的應(yīng)用模型上。而且誤差越低,越難通過微調(diào)來處理。
當前語言模型的預(yù)測生成方法,甚至會放大現(xiàn)有的數(shù)據(jù)誤差,產(chǎn)生“過擬合”的效果:
例如,在某一群體中,某一疾病的統(tǒng)計數(shù)據(jù)占比較高,約60%;但是如果讓語言模型產(chǎn)生病人的畫像,那么90%以上的可能性,產(chǎn)生的病人描述就會屬于這個群體。
目前一些AI模型訓練,采用了一種“互搏”模式——所謂的“生成對抗網(wǎng)絡(luò)”(generative adversarial network),讓兩種模式相互生成,相互糾正。這種方法確實提高了模型訓練的效率,但任何小錯誤都應(yīng)該放大在這種“相互戰(zhàn)斗”中。同樣的原則,如果一個與機器密切合作的知識制造商依賴于這種“生成”,那么一些來自模型偏見的知識將被嵌入到更多的新知識中,新知識將被吸收為數(shù)據(jù),模型誤差將進一步加強。在這一過程中,知識生產(chǎn)者必須提高警惕。
03 什麼是新知識?AI “生成”能否代表新的知識?
究竟什么是所謂的新知識?
若要充分利用AI來生產(chǎn)知識,則知識生產(chǎn)者必須從人機的契合點來思考這一問題。人類從現(xiàn)實世界中獲得的任何信息和知識,都需要被“清理”和“格式”成數(shù)據(jù)。除上述數(shù)據(jù)質(zhì)量外,數(shù)據(jù)生成過程也非常重要。簡單地說,人們要探索哪些問題?這一問題被翻譯成什么樣的數(shù)據(jù)?這一信息是如何制作的,是否全面、公正地代表著知識生產(chǎn)者想要探索的問題?
這一問題,對于“傳統(tǒng)”的知識生產(chǎn)者來說,也是一個問題。就拿歷史學來說,雖然歷史研究的是過去的事,但是過去的事并不能100%蓋棺定論。學者們通常會不斷地尋找新的歷史資料,以補充對歷史問題的認識,不斷地探索過去被忽視的視角和聲音。有趣的是,目前的歷史經(jīng)常向大量數(shù)據(jù)尋求幫助,尤其是過去的經(jīng)濟、人口和氣候數(shù)據(jù),甚至依靠機器學習,給歷史帶來新的認識和觀點。
同樣,依靠機器產(chǎn)生的理解和觀點也可能放大某些信息來源的重要性。如今,知識制造商過于依賴互聯(lián)網(wǎng)和電子信息的主流物品,并在其他被“翻譯”為數(shù)據(jù)的物品中進行創(chuàng)建。AI時代,AI 提供的便利性和可擴展性也會讓人們更容易忽視非主流、經(jīng)驗性的知識,而不會被數(shù)據(jù)化、電子化,從而錯過產(chǎn)生新觀點、新視角的概率。
在更深層次上,新知識通常發(fā)生在新材料的挖掘、不同觀點和視角之間的碰撞以及當前知識的再解構(gòu)中。大語言模型給知識的呈現(xiàn)帶來了很多概率,但邏輯和結(jié)構(gòu)可能與這種生產(chǎn)方式相悖。
基于大語言模型的訓練方法和模型生成的輸出特征,排名靠前、概率更高的導出內(nèi)容,權(quán)重會變大,特征會變得更加單一。?!癆I產(chǎn)生的”幾乎成了一個修飾詞,用來描述那些沒有特色的、重復的、像沒有說過的話。誠然,對于知識消費者來說,“最有可能”的答案大大降低了理解的門檻;但是對于知識生產(chǎn)者來說,這些東西可能會成為障礙。
04 新時代的知識生產(chǎn)者應(yīng)該去哪里?
可能很多像我這樣的社會科學研究者在使用ChatGPT的時候都遇到過這個問題:問它解釋一個概念,說得清清楚楚;然而,當被問及來源時,它是“一本正經(jīng)的廢話”,例如,列出一本作者從未寫過的書和一篇從未發(fā)表過的論文。領(lǐng)域越小越專業(yè),“廢話”的概率越大。
退回到 AI 原則上,這種“創(chuàng)造”實際上是在海量的信息中探索“可能”的詞語之間的聯(lián)系,但這些聯(lián)系在現(xiàn)實中并不存在。說白了,只是“聽起來很像”。這一新現(xiàn)象,在當今被稱為“幻視”(hallucination)。對于知識生產(chǎn)者來說,如何利用人工智能挖掘當前知識庫中的方式和聯(lián)系,也是一項非常重要的技能,可以提高對機器“幻覺”的警惕。
與AI的“對話”也將成為一項新技能。對于大多數(shù)非技術(shù)人員(甚至技術(shù)人員)來說,目前的AI仍然是一個神秘的“黑箱”。如何從技術(shù)底層或中層入手,更有效地與機器對話,理解和抵抗“幻覺”,需要知識生產(chǎn)者與技術(shù)從業(yè)者的合作。。
而且對新知識、新視角、新材料的研究,各領(lǐng)域獨特的結(jié)構(gòu)和詮釋,在當今仍是非常重要的。大型語言模型和生成式AI的預(yù)測方法,仍然傾向于單一、重復,訓練材料越少,能力越有限。如果你想整合機器和人的能力,你必須從數(shù)據(jù)生產(chǎn)的根源入手,用準確、多樣、公平、新穎的數(shù)據(jù)訓練AI模型,建立良性的人機互動模式。
大語言模型和生成式AI的出現(xiàn)給研究人員帶來的挑戰(zhàn)只是開始。與其討論“替代”,不如在更謹慎的眼光下尋找磨合和發(fā)展的可能性。
本文來自微信微信官方賬號“騰訊研究院”(ID:cyberlawrc),作者:李子,36氪經(jīng)授權(quán)發(fā)布。
本文僅代表作者觀點,版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。
免責聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com