對(duì)AI“無禮”或能獲更準(zhǔn)答案:研究引發(fā)新思考
IT之家10月15日消息,據(jù)外媒digitaltrends 10月11日?qǐng)?bào)道,研究發(fā)現(xiàn),和ChatGPT、Gemini等AI工具對(duì)話時(shí),“語氣”會(huì)影響回答質(zhì)量,態(tài)度粗魯些,可能效果更好。

賓夕法尼亞州立大學(xué)研究團(tuán)隊(duì)在最新預(yù)印本論文中指出,讓ChatGPT以不同語氣回答相同問題,結(jié)果顯示,語氣粗魯?shù)奶釂枴傮w表現(xiàn)更好’。在多項(xiàng)選擇測(cè)試?yán)?,禮貌提問準(zhǔn)確率為80.8%,粗魯提問準(zhǔn)確率提高到84.8%。
研究人員將語氣分為五檔,從‘非常禮貌’‘禮貌’到‘粗魯’‘非常粗魯’,中間是‘中性’。據(jù)IT之家了解,‘中性提示’指的是既無‘請(qǐng)’等禮貌表達(dá),也無‘你這個(gè)笨蛋,自己算算看’這類輕蔑語氣命令。
研究團(tuán)隊(duì)沒使用過分冒犯語言,而是選了略顯無禮的提問,如:‘你這可憐的家伙,你確定會(huì)做這題嗎’。研究圖表顯示,從極度禮貌到刻薄無禮,語氣越直接,ChatGPT平均答題準(zhǔn)確率越高。
這項(xiàng)名為《注意你的語氣》的研究結(jié)果,與一年前另一份論文結(jié)論相反。后者分析多語言環(huán)境下的六款聊天機(jī)器人,發(fā)現(xiàn)粗魯語氣會(huì)降低回答質(zhì)量,讓AI回應(yīng)易出現(xiàn)偏見、錯(cuò)誤或遺漏關(guān)鍵信息。
不過,此次研究?jī)H針對(duì)特定任務(wù),即讓ChatGPT回答50道選擇題的250種不同版本,結(jié)果未必具普遍性。
換成Gemini、Claude或Meta AI等其他聊天機(jī)器人,可能沒類似結(jié)果。而且實(shí)驗(yàn)用的是OpenAI的GPT - 4o推理模型,目前公開可用的ChatGPT已升級(jí)到基于GPT - 5的版本。
此外,‘禮貌’和‘粗魯’界限模糊,提問方式和用詞細(xì)微差異都會(huì)影響AI反應(yīng)。
研究最終提出值得思考的問題:一句話的‘情緒分量’會(huì)在多大程度影響聊天機(jī)器人回答?我們能否據(jù)此概括AI行為模式?從原理講,大語言模型解決問題應(yīng)優(yōu)先考慮獎(jiǎng)勵(lì)機(jī)制和準(zhǔn)確性,不應(yīng)被提問語氣左右。
參考
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請(qǐng)?jiān)谖闹凶⒚鱽碓醇白髡呙帧?/p>
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請(qǐng)及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com