AI改變?nèi)祟惔竽X?7項突破性研究帶來驚人答案
AI悄然重塑著人類的思維模式、行為習(xí)慣與文化生態(tài)
隨著人工智能(AI)融入日常生活的方方面面,科學(xué)家們正爭分奪秒地研究其在心理、社會和認知層面的深遠影響。從診斷心理健康問題到塑造政治觀念,人工智能工具,尤其是像ChatGPT這樣的大型語言模型,正深刻影響著我們的思維方式、工作模式,以及與科技和他人互動的方式。
一系列全新的研究已然展開,揭示這一切對我們的思維、行為以及社會所具有的意義。
在本文中,我們將一同探尋七項前沿研究成果。這些發(fā)現(xiàn)揭示了AI正以超乎想象的方式,悄然重塑著人類的思維模式、行為習(xí)慣與文化生態(tài)。
01.好奇的AI黑客:LLM紅隊成員的世界
發(fā)表在《公共科學(xué)圖書館:綜合》上的一項研究揭示了 “大型語言模型紅隊” 新興文化。在這種文化中,人們將大型語言模型推向極限。其目的并非造成危害,而是為通過探索與實驗,深度解析模型運作邏輯。
研究團隊訪談了28位來自軟件工程師、藝術(shù)家等不同領(lǐng)域的從業(yè)者,發(fā)現(xiàn)驅(qū)動他們投身測試的是強烈的好奇心、道德責(zé)任感,以及挖掘人工智能系統(tǒng)隱藏漏洞的使命感。他們運用充滿創(chuàng)意與即興的策略,試圖激發(fā)出模型的意外或受限回應(yīng)。
參與者們用 “煉金術(shù)” 和 “占卜” 這樣的隱喻來描述他們的活動,這反映出大型語言模型行為的神秘本質(zhì)。許多人都屬于充滿活力的在線社區(qū),在這些社區(qū)里他們分享提示和技巧。
該研究確定了五大類紅隊策略,比如修辭框架構(gòu)建和虛構(gòu)世界構(gòu)建,并強調(diào)大多數(shù)測試者行事并無惡意。他們并非為了利用安全漏洞,而是旨在了解僅靠語言如何 “黑入” 這些模型。

研究人員認為,以人為中心的定性方法是理解人工智能紅隊不斷演變的實踐的關(guān)鍵,尤其是在傳統(tǒng)網(wǎng)絡(luò)安全方法無法應(yīng)對這一新的語言領(lǐng)域的情況下。
02.ChatGPT在精神病案例分析中零診斷錯誤
《亞洲精神病學(xué)雜志》發(fā)表的一項研究,采用100個精神病案例片段,對ChatGPT的診斷能力展開評估。結(jié)果令人矚目:該模型在61個案例中斬獲最高分,31個案例獲得次高分,且全程保持零診斷失誤。
這充分表明,ChatGPT 3.5在解讀精神疾病癥狀、提出治療方案方面表現(xiàn)卓越,也讓人工智能未來在臨床心理健康領(lǐng)域發(fā)揮輔助作用成為可能。
這項研究采用了一本知名教科書中的案例片段,這些內(nèi)容或許被納入了模型的訓(xùn)練數(shù)據(jù),也可能并未包含其中。
每個案例都詳細描述了癥狀,隨后設(shè)置診斷問題,并由兩位經(jīng)驗豐富的精神科醫(yī)生進行評估。ChatGPT最出色的表現(xiàn)在于提出治療管理方案,不過它在鑒別診斷方面也相當(dāng)優(yōu)秀。
研究結(jié)果證實,語言模型能夠為臨床醫(yī)生提供輔助,尤其是在輔以適當(dāng)監(jiān)督的情況下。然而,其結(jié)論的普適性仍存疑。特別是當(dāng)未來的測試采用不太常見或尚未公開的數(shù)據(jù)時,模型是否還能保持如此表現(xiàn),尚待驗證。
03.ChatGPT的政治傾向發(fā)生轉(zhuǎn)變了嗎
發(fā)表在《人文與社會科學(xué)通訊》上的研究發(fā)現(xiàn),ChatGPT的政治輸出傾向于與自由左派價值觀保持一致,但更新的版本顯示出向政治右派的微妙轉(zhuǎn)變。
研究人員使用 “政治指南針測試”,分析了ChatGPT-3.5和GPT-4各自的3000條回復(fù)。雖然兩個版本總體上都傾向于自由左派,但GPT-4在經(jīng)濟價值觀上更趨向于中右派。
這種轉(zhuǎn)變可能并非由于訓(xùn)練數(shù)據(jù)的變化,因為研究人員控制了許多外部變量。相反,研究結(jié)果表明,即使是模型設(shè)計的細微更新也會影響其回答的政治傾向。
盡管大型語言模型本身并不持有政治信仰,但它們反映了所訓(xùn)練的數(shù)據(jù)和開發(fā)者的指令。作者主張進行持續(xù)監(jiān)督,以追蹤這些轉(zhuǎn)變是如何發(fā)生的,特別是在大型語言模型在公共傳播、教育和決策環(huán)境中被更頻繁使用的情況下。
04.ChatGPT的使用加劇了職場不平等
《美國國家科學(xué)院院刊》上的一項研究發(fā)現(xiàn),盡管ChatGPT在工作場所中被廣泛應(yīng)用,但其帶來的益處并未得到平等分配。

研究人員對1.8萬名從事如新聞業(yè)和軟件開發(fā)等高AI接觸度職業(yè)的丹麥工人進行了調(diào)查,發(fā)現(xiàn)年輕、高收入的男性使用該工具的可能性要大得多。而女性和低收入工人,即使在同一職業(yè)中,使用ChatGPT的可能性也較小。
這些研究結(jié)果表明,諸如公司政策或缺乏培訓(xùn)等AI應(yīng)用障礙,可能會加劇現(xiàn)有的不平等現(xiàn)象。即便得知ChatGPT具有節(jié)省時間的潛力,許多工人也沒有改變他們的使用計劃,這表明僅有認知并不足以推動其應(yīng)用。
有趣的是,早期采用者往往收入更高,且對生產(chǎn)率的提高更為樂觀。研究人員指出,除非采取干預(yù)措施來營造公平的競爭環(huán)境,否則這些模式可能會使一些群體長期受益,而另一些群體則處于劣勢。
05.AI能從老年人的駕駛行為中發(fā)現(xiàn)抑郁跡象
由圣路易斯華盛頓大學(xué)的研究人員主導(dǎo)的兩項研究發(fā)現(xiàn),駕駛行為可以揭示老年人的抑郁跡象,而且人工智能能夠幫助檢測這些跡象。
在第一項研究中,65歲及以上的參與者通過安裝在車輛上的全球定位系統(tǒng)設(shè)備收集了駕駛數(shù)據(jù)。患有抑郁癥的人表現(xiàn)出更不穩(wěn)定的駕駛模式,包括急剎車、行駛路線不可預(yù)測以及行駛距離更遠,盡管他們在認知測試中的得分與沒有抑郁癥的人相似。
第二項研究使用機器學(xué)習(xí)分析了157名老年人兩年的駕駛數(shù)據(jù)。一個結(jié)合了駕駛模式和藥物使用情況的模型能夠以高達90%的準確率識別出抑郁癥患者。令人驚訝的是,人口統(tǒng)計數(shù)據(jù)并沒有顯著提高模型的性能,這表明行為數(shù)據(jù)可能比年齡或性別更能說明問題。
雖然這項研究并不能證明抑郁癥導(dǎo)致了這些變化,但它凸顯了一種很有前景的新方法,即利用現(xiàn)實世界的行為數(shù)據(jù)進行心理健康篩查。
06.AI在個性測試中 “粉飾” 形象
《美國國家科學(xué)院院刊?Nexus》刊登的一項研究顯示,大型語言模型在接受個性測試時,會出現(xiàn)顯著的社會期望偏差。

在完成 “大五人格” 測評時,GPT-4、Claude 3等模型的回答往往讓自己顯得格外外向、友善、自律,同時刻意弱化情緒波動。有趣的是,測試問題越多,這種 “美化” 傾向越明顯,仿佛模型也懂得 “迎合” 評估標準。
為排除記憶或機械應(yīng)答的干擾,研究團隊設(shè)計了多版本問題,打亂提問順序并調(diào)整表述方式。結(jié)果顯示,模型的偏差程度相當(dāng)夸張,若將其換算為人的測試結(jié)果,相當(dāng)于人格特質(zhì)出現(xiàn)了一個標準差的偏移。
這一發(fā)現(xiàn)給心理學(xué)研究和現(xiàn)實評估敲響警鐘:若模型在訓(xùn)練中被引導(dǎo) “塑造好感”,其輸出結(jié)果可能無法真實模擬人類行為。
07.研究警示:過度依賴AI或削弱批判性思維
《社會》期刊發(fā)表的研究指出,頻繁使用人工智能工具可能導(dǎo)致用戶批判性思維能力下滑,根源在于認知卸載現(xiàn)象,人們習(xí)慣讓AI代勞復(fù)雜思考,跳過深度分析直接獲取答案。
數(shù)據(jù)顯示,這種影響在年輕群體中尤為突出,而高學(xué)歷者即便常用AI,仍能較好保持思辨能力。
研究團隊通過對666人進行問卷調(diào)查、深度訪談和統(tǒng)計建模發(fā)現(xiàn),將AI用于日常決策或問題解決的用戶,在批判性思維測試中得分明顯更低。訪談更揭示,許多年輕用戶已不再質(zhì)疑AI生成的結(jié)論。
研究人員呼吁通過教育引導(dǎo)和技術(shù)優(yōu)化,推動用戶理性審視AI輸出。畢竟,AI本身并無利弊之分,關(guān)鍵在于人類如何與之互動,這將決定其對認知能力的長期影響。
本文僅代表作者觀點,版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com




