AI大模型依賴底層技術(shù)突破,英特爾將推AI芯片、智能網(wǎng)卡新品
“大模型未來的發(fā)展需要依賴于底層技術(shù)突破,如技術(shù)、通訊和存儲技術(shù)。只有這些底層技術(shù)不斷突破,才能實(shí)現(xiàn)對人工智能更高的要求。這些底層技術(shù)正是英特爾正在努力發(fā)展的方向,包括人工智能、邊緣到云的基礎(chǔ)架構(gòu)、連接和傳感技術(shù)等?!痹?023年世界人工智能大會期間,英特爾中國區(qū)網(wǎng)絡(luò)與邊緣事業(yè)部首席技術(shù)官、英特爾高級首席AI工程師張宇在接受界面新聞等采訪時(shí)稱。
張宇說,他觀察當(dāng)前AI大模型的商業(yè)進(jìn)展,還未發(fā)現(xiàn)一個(gè)特別成功的商業(yè)模式和持久的使用場景,因此可以認(rèn)為大模型的商業(yè)模式仍在摸索中。即使人們對于ChatGPT的應(yīng)用相當(dāng)熱衷,用它來寫論文、畫圖等,但一些報(bào)告顯示,ChatGPT最近的訪問量正在下降。
但這一現(xiàn)象并不能否定ChatGPT開啟的AI新時(shí)代,張宇稱,目前AI大模型和AIGC技術(shù)尚處于開環(huán)工作,而不是閉環(huán)工作,仍然存在成本、數(shù)據(jù)和人力等限制,隨著人工智能和算力的不斷發(fā)展,這些問題可能會得到解決。
作為芯片巨頭,英特爾雖不及英偉達(dá)在AI計(jì)算中憑借GPU“獨(dú)領(lǐng)風(fēng)騷”,但仍是該領(lǐng)域的重要玩家,可以提供諸如CPU、GPU、FPGA等多種算力資源和完整軟硬件解決方案等。張宇介紹,不同的計(jì)算資源需考慮資源分配和調(diào)度問題。對于資源調(diào)度,需要一個(gè)統(tǒng)一API(應(yīng)用程序接口)接口,否則不同的資源調(diào)度都需要不同的接口,這是不經(jīng)濟(jì)的?!?/span>
英特爾正在考慮如何在異構(gòu)平臺上合理分配負(fù)載,以進(jìn)行人工智能處理。張宇指出,在底層方面,英特爾采用了OneAPI(一種統(tǒng)一編程模型和應(yīng)用程序接口)思路,利用OneAPI提供的優(yōu)化庫,希望以打包的平臺方案整合自家龐雜的產(chǎn)品路線,降低客戶對底層硬件差異的敏感度。在算力調(diào)度方面,英特爾還需要考慮資源分配的問題,根據(jù)不同場景的要求選擇不同的產(chǎn)品組合,包括獨(dú)立顯卡、集成顯卡、CPU以及AI芯片等。
近年來,AI應(yīng)用的普及,對底層計(jì)算芯片提出了更高的要求。GPU比傳統(tǒng)CPU更適合此類任務(wù),性能表現(xiàn)更好,在AI計(jì)算市場上搶得先機(jī)。針對人工智能訓(xùn)練市場,主流的方案是英偉達(dá)GPU,推廣專用AI芯片進(jìn)行訓(xùn)練并不容易。英特爾試圖打破這一點(diǎn),張宇稱,目前英特爾有專門為大模型訓(xùn)練設(shè)計(jì)的Habana Gaudi 2這一款A(yù)I芯片。
Habana Gaudi 2作為落地英特爾AI戰(zhàn)略的重要產(chǎn)品,英特爾對其有巨大市場期望。Habana原為以色列初創(chuàng)芯片公司,2016年成立,旗下產(chǎn)品曾滲透進(jìn)入中國主要互聯(lián)網(wǎng)公司,2019年12月,英特爾以20億美元收購Habana。
“在最近的MLCommons公開的AI評測中,只有英特爾和另一家友商展示了在大模型訓(xùn)練方面的良好性能?!睆堄钔嘎?,“我們計(jì)劃不久將其引入中國,并發(fā)布相關(guān)活動(dòng),這對英特爾來說非常重要?!?/span>
另一方面,英特爾亦以自身在網(wǎng)絡(luò)技術(shù)領(lǐng)域的積累,試圖解決AI大模型的網(wǎng)絡(luò)瓶頸問題。張宇指出,網(wǎng)絡(luò)互連對大模型的訓(xùn)練推理同樣重要,因?yàn)榇竽P偷钠脚_通常是一個(gè)集群,需要解決節(jié)點(diǎn)之間的通信問題。在訓(xùn)練過程中,模型的參數(shù)存儲在GPU外圍存儲器中,反向傳輸過程中需要不斷更新這些參數(shù)。因此,在進(jìn)行大量的數(shù)據(jù)存取操作時(shí),通信速度的下降會影響整個(gè)系統(tǒng)的性能。
近年來,為了應(yīng)對大模型網(wǎng)絡(luò)瓶頸,云計(jì)算、服務(wù)器等廠商提出無損網(wǎng)絡(luò)架構(gòu),引入RDMA(遠(yuǎn)程直接數(shù)據(jù)存?。┘夹g(shù)或者是DPU(數(shù)據(jù)處理器)等硬件,張宇稱,隨著大模型的訓(xùn)練集群規(guī)模不斷擴(kuò)大,數(shù)據(jù)傳輸不斷增加,網(wǎng)絡(luò)擁塞不可避免。其中一種方案提高網(wǎng)卡速度,英特爾即計(jì)劃推出具備200G吞吐速度的網(wǎng)卡,400G和800G規(guī)格的網(wǎng)卡產(chǎn)品也在路線圖上。
另一方面,英特爾還嘗試提高網(wǎng)絡(luò)傳輸?shù)目煽啃?,“我們將通過更新和創(chuàng)新更高層網(wǎng)絡(luò)協(xié)議來提高以太網(wǎng)傳輸RDMA協(xié)議的可靠性,稱之為可靠傳輸,這個(gè)功能將包含在我們即將發(fā)布的下一代IPU中。”張宇稱。IPU即基礎(chǔ)設(shè)施處理器,該產(chǎn)品本質(zhì)上就是如今火熱的DPU(數(shù)據(jù)處理器)。此前英特爾依托FPGA方案,在2021年6月推出了首款I(lǐng)PU。據(jù)界面新聞了解,英特爾IPU在運(yùn)營商中應(yīng)用較多。
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請?jiān)谖闹凶⒚鱽碓醇白髡呙帧?/p>
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時(shí)與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com