阿里打骨折,百度不要錢!
下面的文章來源于科創(chuàng)板日報 ,作者黃心怡
科創(chuàng)板日報.
《科技創(chuàng)新板日報》由上海報業(yè)集團主辦,財聯(lián)社出品。專注于新興產(chǎn)業(yè)和資本,是科技創(chuàng)新板、新興產(chǎn)業(yè)和資本的重要輿論前沿,深度覆蓋新一代信息技術(shù)、半導(dǎo)體、生物醫(yī)藥、新能源、新材料、基金等。,并提供媒體、數(shù)據(jù)、城市、投資銀行等產(chǎn)品體系服務(wù)。
昨日,阿里云拋出重磅炸彈,通義千問GPT-4級主模Qwen-Long,API輸入價格從0.02元/千tokens下降到0.0005元/千tokens,即0.5%/千tokens,狂降97%。也就是說,1元錢可以買到200萬tokens,相當(dāng)于5本《新華字典》的字數(shù)。
隨后,下午,百度智能云宣布文心大模型兩大主要模型完全免費。今年3月推出的兩款輕量級大型ERNIE Speed、ERNIE Lite,支持文本長度的8K和128k。此前,在字節(jié)豆包宣布全網(wǎng)大模型最低價后,阿里云昨日宣布主模型降價97%,降價后約為GPT-4價格的1/400,穿透了全球底價。
值得注意的是,本月智譜AI、字節(jié)跳動的大模型也宣布降價。其中,字節(jié)豆包的主要模型定價為0.0008元/千Tokens,即0.8%/千tokens,被視為推動大模型定價進入“厘時代”。
業(yè)界分析認為,這一輪大模型降價潮,是各廠商希望進一步占領(lǐng)市場,從而加速AI應(yīng)用的商業(yè)化。
9款商業(yè)化和開源系列模型降價
Qwen-Long是通義千問的長文本增強模型,其性能與GPT-4相比,前后文長度最高1000萬。除輸入價格降至0.0005元/千tokens外,Qwen-Long的導(dǎo)出價格也降低了90%到0.002元/千tokens。相比之下,國內(nèi)外廠商GPT-4、Gemini1.5 Pro、Claude 3 Sonnet和Ernie-每千tokens的4.0輸入價格分別為0.22元、0.025元、0.022元和0.12元。
通義千問的降價涵蓋了9個商業(yè)化和開源系列模型。不久前發(fā)布的通義千問旗艦大模型Qwen-Max,API輸入價格降至0.04元/千tokens,降至67元%。

不久前,智譜AI、字節(jié)跳動旗下的火山引擎也紛紛宣布降價。五月十一日,智譜AI大模型的新注冊用戶獲得額度由500萬tokens提高到2500萬tokens,個人版 GLM-3Turbo模型產(chǎn)品的調(diào)用價格從5元/百萬tokens下降到1元/百萬tokens。GLM-3 Turbo Batch 批量處理API也便宜了50%,價格是1元/200萬tokens。
十五日,火山發(fā)動機宣布豆包Pro 32k模型的價格是0.8%/千tokens。另外,豆包Pro 128k模型的價格是5厘錢/千tokens。
對于這一輪降價潮,很多行業(yè)分析指出,大模型已經(jīng)開始從“卷大模型技術(shù)”向“卷大模型應(yīng)用”轉(zhuǎn)變,但推理成本過高仍然是制約大模型大規(guī)模應(yīng)用的重要因素。
阿里云智能集團高級副總裁、公共云事業(yè)部總裁劉偉光在武漢AI智能領(lǐng)袖峰會上表示:“這次阿里云大幅降低了大模型推理的價格,只是為了加快AI應(yīng)用的爆發(fā)。我們預(yù)計2024年大模型API的日調(diào)用頻率將超過100億?!?/p>

無論是開源模式還是商業(yè)模式,劉偉光判斷,公共云 API將成為企業(yè)使用大型模型的主流方式。"云調(diào)用成本遠遠適用于私有云部署。公司在追求更大尺寸的模型時,要面對GPU采購、軟件部署、網(wǎng)絡(luò)費用、電費、人工費用等。伴隨著大型模型規(guī)模的擴大,私有化部署的成本和復(fù)雜程度也越來越高。為了建立計算網(wǎng)絡(luò)集群,去年也有不少公司考慮購買數(shù)百臺GPU服務(wù)器。但是今年許多企業(yè)已經(jīng)放棄了自建百臺集群的大型研發(fā)。
“模型推理是最重要的長期機會之一,它將成為云業(yè)務(wù)的關(guān)鍵驅(qū)動力,”百度創(chuàng)始人李彥宏也在業(yè)績會上表示。四月份,文心大模型API每天調(diào)用2億次。去年12月,數(shù)據(jù)達到5000萬次。
誰能抓住模型推理的市場機遇?
在接受《科創(chuàng)板日報》記者采訪時,多位大模型行業(yè)專家對通義千問的降價幅度進行了評價,“力度很大”。、"很便宜"。
然而,也有云計算架構(gòu)師向記者指出,實際效果仍然取決于“療效”。
「市場上的大型模型太多了。療效好,多少不貴;如果療效不好,多少就貴了。」
記者了解到,目前頭部企業(yè)會選擇多種模式進行訪問,在不同的應(yīng)用領(lǐng)域選擇更合適的模式,這意味著大型模型制造商之間的競爭非常激烈。
比如小米的人工智能助手“小愛同學(xué)”在接入文心大模型API的同時,也宣布與阿里云通義大模型合作,加強其在圖片生成、照片理解等方面的多模態(tài)AI生成能力。
在今年第一季度發(fā)布的財務(wù)報告中,阿里和百度都提到了生成式AI對收入增長的積極影響。百度的智能云收入為47億元,同比增長12%,其中生成式AI的收入占6.9%。據(jù)估計,百度第一季度生成式AI的收入約為3.24億元。
阿里集團CEO吳泳銘在阿里財報電話會上表示,預(yù)計今年下半年云業(yè)務(wù)將恢復(fù)雙位數(shù)增長,收入增長主要來自AI新產(chǎn)品。對于大模型的未來目標,吳泳銘表示,“我們將與阿里云先進的AI基礎(chǔ)設(shè)施合作優(yōu)化“通義千問”模型,為中國開發(fā)商或中國企業(yè)提供AI能力強、性價比高的AI大模型推理服務(wù)。”
開源閉源路線之爭
值得注意的是,百度和阿里在模型是否開源方面選擇了完全不同的路線。
四月底,阿里云開源了Qwen1.5-110B的1100億參數(shù)模型。到目前為止,通義開源大模型的下載量已經(jīng)超過了700萬。
“通義的開源模型廣泛應(yīng)用于中國世界的開發(fā)者。當(dāng)開發(fā)者使用阿里巴巴云的開源模型,需要在線部署應(yīng)用時,自然會選擇阿里巴巴云的服務(wù)?!眳怯俱懻f。
在百度方面,李彥宏多次宣傳閉源的優(yōu)勢。Create 在2024百度AI開發(fā)者大會上,他曾直言“開源模式將越來越落后”。五月十五日,百度還宣布:“閉源大模型 公共云已成為全球AI市場的主流趨勢?!伴]源大模型” 與開源大模型相比,公有云可以實現(xiàn)性能更好、成本更低的綜合效果,從而促進AI應(yīng)用的生態(tài)繁榮。
目前,國際制造商在開放和關(guān)閉源的路線上有自己的側(cè)重點。比如OpenAI的GPT-4模型采用閉源模式,而Meta則選擇完全開放源碼。其他大型公司開放模型“低版本”,關(guān)閉參數(shù)較高的模型。比如谷歌Gemini多模式模式閉源,今年2月宣布開源單模式Gemma語言模式。
中國IDC研究總監(jiān)盧言霞表示,未來是開源還是閉源。這與頭部企業(yè)的選擇密切相關(guān)。目前這個領(lǐng)域還有很大的不確定性。
一位大型青年學(xué)者告訴記者,開源和閉源的路線各有特色,但是開源肯定更能促進行業(yè)的發(fā)展。
艾瑞咨詢在一份AIGC產(chǎn)業(yè)報告中分析,大型技術(shù)前沿廠商會選擇閉源或逐步從開源走向閉源,以保證模型的創(chuàng)新性、穩(wěn)定性和安全性,以建設(shè)自己先進的模型堡壘和技術(shù)環(huán)城河的商業(yè)考慮。而且開源可以促進眾多開發(fā)者和研究者的創(chuàng)新,從商業(yè)角度加快大模型的商業(yè)化進程和落地效果。艾瑞咨詢認為:“未來,開源與閉源的大模型將共存并互補。”
原題:“阿里打骨折,百度不要錢!”
閱讀原文
本文僅代表作者觀點,版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com