開源與閉源爭論的背后,是大模型未來商業(yè)生態(tài)演進的嚴肅思考
“開源模型會越來越落后?!盋reate 2024百度AI開發(fā)者大會上,百度創(chuàng)始人、董事長兼首席執(zhí)行官李彥宏的這句話,以及在大會上發(fā)布的PPT,在網(wǎng)絡上廣為流傳,并引起了科技圈關于大模型開源vs閉源的辯論。
引起對大模型是否要開源的系統(tǒng)性討論的,還有李彥宏發(fā)表的關于大模型開源的多個看法:
“開源模型已經(jīng)很多了,不缺百度一家。”
“大家以前用開源覺得開源便宜,其實在大模型場景下,開源是最貴的?!?/p>
“而且模型開源也不是一個眾人拾柴火焰高的情況。這跟傳統(tǒng)的軟件開源一比如Linux、安卓等等很不一樣,由于是模型帶來的開源,我們也不知道參數(shù)為什么變成了那個樣子,這種情況下很難實現(xiàn)眾人拾柴火焰高。雖然Llama也鼓勵大家去貢獻各種各樣的數(shù)據(jù)、代碼,但是實際上大家明白最主要的開發(fā)者就是Meta這些人,它并不是一個真正由大家一起來協(xié)同開發(fā)的產(chǎn)品?!?/p>
360創(chuàng)始人周鴻祎一直是開源的信徒,很巧的是,他4月13號在哈佛有個演講,在演講中也提到了關于開源的態(tài)度“沒有開源就沒有Linux,沒有PHP,沒有MySQL,甚至沒有互聯(lián)網(wǎng)。包括在人工智能的發(fā)展上,如果沒有當初谷歌開源Transformer,就不會有OpenAI和GPT。我們都是受益于開源成長起來的個人和公司?!?/p>
網(wǎng)民猜測周鴻祎在“暗懟”李彥宏。周鴻祎隨后在4月20日再次發(fā)文澄清,“這兩天有人挑事兒,說我攻擊李廠長,我不是針對李廠長,我還是從產(chǎn)業(yè)發(fā)展的角度來看開源和閉源。”
其實,兩位科技企業(yè)的創(chuàng)始人關于大模型開源vs閉源的爭論,不是簡簡單單的開源好、還是閉源好的二元論問題,而是一個關于復雜系統(tǒng)的爭論,涉及到多個問題:
① 在大模型領域,開源模型的能力是否永遠會落后于閉源模型的能力?
② 開源模型,是否可能有商業(yè)化落地的閉環(huán)?
③ 當真正應用大模型的時候,究竟是開源還是閉源性價比更高?
④ 從科技發(fā)展的角度來講,大模型的開源和傳統(tǒng)意義的開源,究竟有什么不同?
開源不僅是開放源代碼這么簡單
開源(Open Source)的起源可以追溯到計算機技術初期,那時候軟件和硬件就像是一對連體嬰,用戶常常得自己動手編寫或修改軟件來解決問題。到1955年,IBM為了讓大家都能深入研究他們的操作系統(tǒng),搞了一個“IBM用戶組分享”。
70年代中葉,隨著計算機技術的發(fā)展,軟件開始成為一種商品,而不再免費地與硬件一起提供。這種變化導致了軟件的共享文化開始受到限制。為了反對這種趨勢,自由軟件運動(Free Software Movement)開始興起,Richard Stallman在1983年發(fā)起了GNU項目,并在1985年創(chuàng)立了自由軟件基金會(Free Software Foundation, FSF),推動自由軟件的發(fā)展。
1998年,Eric Raymond和Bruce Perens成立了開源促進會(Open Source Initiative, OSI),并提出了“開源定義”(Open Source Definition),這是對開源軟件的正式定義。OSI的目標是推廣開源軟件,并為開源項目提供認證。
按照開源促進會的說法,開源軟件不光是把源代碼公開那么簡單,它還得滿足一些條件,比如允許大家自由地用、改和分享這個軟件,甚至基于它創(chuàng)造新的東西。但是,開源軟件也不是啥都不管,它得在某種開源許可證下發(fā)布,比如我們常聽到的GPL、Apache、BSD和MIT這些許可證。
為何周鴻祎會特別提到,沒有開源就沒有Linux、PHP、和MySQL,這三者和開源的關系是什么?和現(xiàn)在的科技產(chǎn)業(yè)又有什么關系?
●Linux:Linux是一個開源的操作系統(tǒng)內核,由Linus Torvalds在1991年首次發(fā)布。 L inux內核是許多現(xiàn)代操作系統(tǒng)的基礎,包括Android和大多數(shù)服務器操作系統(tǒng)。 Linux的開發(fā)模式——開放源代碼、社區(qū)驅動、協(xié)作開發(fā)——成為了開源軟件運動的一個標志性案例。
●Apache HTTP Server:一個強大的Web服務器軟件,處理HTTP請求并提供Web頁面。Apache HTTP Server是互聯(lián)網(wǎng)上最常用的Web服務器之一,以其性能和可配置性而受到青睞。
●PHP:PHP是一種開源的服務器端腳本語言,特別適用于Web開發(fā),并且是創(chuàng)建動態(tài)網(wǎng)站和Web應用的常用工具。PHP的開源特性允許開發(fā)者自由地使用、修改和增強其功能,從而推動了Web開發(fā)技術的發(fā)展。
●MySQL:MySQL是一個流行的開源關系數(shù)據(jù)庫管理系統(tǒng)(RDBMS),廣泛用于網(wǎng)站和在線應用的數(shù)據(jù)存儲。MySQL的開源性質使得它能夠被社區(qū)廣泛采用和定制,成為許多網(wǎng)站和網(wǎng)絡應用后端的關鍵組件。
這三者共同構成了所謂的LAMP(Linux, Apache, MySQL, PHP/Python/Perl)棧的一部分,這是創(chuàng)建動態(tài)網(wǎng)站和網(wǎng)絡應用的常用技術組合。Linux作為操作系統(tǒng),Apache作為Web服務器,MySQL作為數(shù)據(jù)庫,而PHP(或其他語言如Python或Perl)作為腳本語言,共同支持了互聯(lián)網(wǎng)上的大量網(wǎng)站和應用。
用通俗的語言解釋就是,LAMP就像是一個團隊,里面有打地基的Linux,接待用戶的Apache,管理數(shù)據(jù)的MySQL,還有寫代碼的PHP(或Python、Perl)。這個團隊合作無間,可以說是互聯(lián)網(wǎng)世界的基礎。
除了這些技術的發(fā)展和普及,開源還為全球開發(fā)者社區(qū)提供了一個共享知識、協(xié)作創(chuàng)新的平臺。通過開放源代碼,這些項目能夠快速迭代,聚集全球開發(fā)者的智慧,形成了強大的生態(tài)系統(tǒng),推動了整個軟件行業(yè)的進步。
來到大模型時代,開源變了嗎?
那么,來到大模型時代,開源有什么不同了嗎?在早期的軟件時代,開源主要是由個人和小型團隊推動的,重點在于共享代碼和協(xié)作解決問題。開源項目通常是由愛好者和志愿者社區(qū)維護的,商業(yè)化程度較低。例如,Linux操作系統(tǒng)的誕生和GNU項目的推動,都是這一時期開源生態(tài)的代表。
隨著互聯(lián)網(wǎng)的興起,開源生態(tài)開始加速發(fā)展,開源項目開始得到更廣泛的認可和使用,如上文提到的LAMP,它們成為了構建網(wǎng)站和網(wǎng)絡應用的基石。此外,開源也開始與商業(yè)模式相結合,如通過提供技術服務和支持來盈利。
到了云計算時代,云服務提供商開始大量采用和貢獻開源技術,如OpenStack和Docker等,它們成為了云計算基礎設施的重要組成部分。開源軟件開始與云服務緊密結合,提供更加靈活和可擴展的解決方案。同時,云服務商通過提供基于開源軟件的云服務來創(chuàng)造商業(yè)價值,如AWS、Azure等。
大模型的技術浪潮,某種程度上也是由開源開啟,谷歌開源了Transformer,才有了后來OpenAI引爆行業(yè)的ChatGPT。
但OpenAI不再Open,谷歌也不再那么Open,大模型的開源大旗,反而被Meta以其Llama系列模型扛起,馬斯克開源Grok模型,位于法國巴黎的Mistral AI,成為另外兩股最被關注的大模型開源力量。
但是,Llama2剛剛發(fā)布后不久,就有批評說,Llama2并不符合開源促進會(OSI)設定的定義,Llama2的許可證包含了一定的限制,比如禁止使用Llama2去訓練其它語言模型,如果該模型用于每月用戶超過7億的應用程序和服務,則需要獲得Meta的特殊許可證。
大模型時代的開源,也變得更加復雜。
首先是開源的方式,單單從最具代表性的Llama系列模型和Mistral系列模型,它們的開源方式就不太相同。一位熟悉開源生態(tài)的專家表示,它們的區(qū)別主要在于Restrict License(限制許可)VS Apache。Llama的開源屬于前者,從前面描述的Llama2的限制方式可以看出,這種開源方式是指在開放源代碼的同時,對使用、修改和分發(fā)該模型的行為施加一定的限制。
這與完全開放的開源許可證(如MIT、Apache 2.0等)不同,后者通常允許用戶在幾乎不設限的情況下使用和修改軟件,而Mistral、谷歌的開源模型Gemma都采取了這種方式,既開源了模型的權重也開源了模型的架構。但是對于訓練的數(shù)據(jù)和訓練過程并不開源。
除了開源方式的不同,訓練一個大模型通常需要大量的數(shù)據(jù)、計算資源和專業(yè)知識來進行訓練和優(yōu)化,這些資源往往只有大型科技公司或研究機構才能提供。所以,大模型時代的開源主體,往往是大型科技公司,或者資源優(yōu)勢強的創(chuàng)業(yè)公司,而不是個體;這也造成了,開源雖然可能吸引更廣泛的社區(qū)參與,但由于技術門檻和資源需求,實際貢獻可能集中在有限的專家群體中;某些大公司的開源,還有著占據(jù)競爭生態(tài)位的考量,所以對于開源條款的設計,也會有更加復雜的考慮。
這些變化呼應了文章開頭提到的李彥宏的觀點,“模型開源不是一個眾人拾柴火焰高的情況。這跟Linux、安卓等傳統(tǒng)的軟件開源很不一樣,由于是模型帶來的開源,我們也不知道參數(shù)為什么變成了那個樣子。雖然Llama也鼓勵大家去貢獻各種各樣的數(shù)據(jù)、代碼,但是實際上大家明白最主要的開發(fā)者就是Meta這些人,它并不是一個真正由大家一起來協(xié)同開發(fā)的產(chǎn)品。”
但是大模型的生態(tài)剛剛萌芽,從目前看來,確實是能夠獲取有限資源的少部分人,推動了大部分的技術進步,但是隨著算力資源成本的降低及門檻的下降,是否未來還能呈現(xiàn)“眾人拾柴火焰高”的情況,目前也無法下定論。
但是,大模型的生態(tài)發(fā)展究竟會如何演變?相對于開源歷史,又會呈現(xiàn)出哪些不同的特點?這是值得科技界長期關注和深度討論的問題。
從Benchmark來看,開源閉源模型的能力對比
基于大模型開源生態(tài)的演進,還有一個討論的焦點,“開源大模型的能力,真的會越來越落后嗎?”
被稱為最強開源大模型的Llama3在4月19日發(fā)布,有8B和70B的版本,并預告大版本的超過4000億參數(shù)的模型也將在晚些時候發(fā)布。Llama 3 在多項性能基準上展現(xiàn)了最先進的性能,提供了包括改進的推理能力在內的新功能。
從Benchmark看,僅僅70B的Llama 3在各項指標上已經(jīng)能和據(jù)推測參數(shù)量為175B的Gemini Pro1.5相抗衡,聯(lián)合Claude 3給出的數(shù)據(jù),70B的Llama3即使對敵GPT4,在各項benchmark上比較也已經(jīng)非常接近。這還是在Llama3未進行微調的情況下達成的,這說明它后續(xù)還有很大的提升空間。
同樣的,開源界的另外兩個巨頭Mistreal 和 Grok近期放出的模型也都展示出與GPT-4“同代”的水平。Grok1.5V具有多模態(tài)能力,且各項指標與GPT4不分伯仲。Mistreal近期流出的基于Llama2訓練的Miqu 70B模型據(jù)EQbenchmark測試也和GPT4能力相近。
2023年,外國媒體報道谷歌曾經(jīng)流出一份文件,主題是“我們沒有『護城河』,OpenAI 也沒有。當我們還在爭吵時,第三方已經(jīng)悄悄地搶了我們的飯碗——開源?!?/strong>
這份文件認為,現(xiàn)在的一些開源和閉源模型的差距正在以驚人的速度縮小。開源模型更快、可定制性更強、更私密,而且功能性也不落下風。“幾乎任何人都能按照自己的想法實現(xiàn)模型微調,到時候一天之內的訓練周期將成為常態(tài)。以這樣的速度,微調的累積效應將很快幫助小模型克服體量上的劣勢。”
連谷歌都不得不面對這樣的難題,開源模型,正在從能力上不斷接近閉源模型,而從商業(yè)上,也在蠶食威脅閉源模型的護城河。
從技術發(fā)展的歷史規(guī)律來看。技術發(fā)展的曲線必然會經(jīng)歷從陡峭到放緩的階段,這就意味著,即使領先者一開始“遙遙領先”,后來者也會逐漸追上,并逐漸縮短與領先者的差距。
隨著Llama3一起發(fā)布的,還有扎克伯格的一個專訪,他對于大模型的Scaling law這條路持有比較悲觀的態(tài)度,他認為從現(xiàn)在開始,進展將是漸進式的。2025年前不會有通用人工智能(AGI)出現(xiàn)。
這也就意味著大模型技術迭代速度可能會慢下來,是否開源也會慢下來?開源和閉源之間的差距,會縮小嗎?
開源還是閉源,究竟如何選?
選擇開源還是閉源?對于企業(yè)用戶來講,最優(yōu)先的問題只有一個,哪個性價比更高?
清華大學汪玉教授曾經(jīng)在一次公開演講上給出了使用GPT系列模型的推理成本,如下圖所示:
如果使用閉源模型做API運營,假設GPT-4 Turbo每天要為10億活躍用戶提供服務,每年的算力成本可能超過兩千億。目前很多公司的收入規(guī)模也就在億級,即使用戶規(guī)模不會有這么大,但是算力的成本也很難支撐自身業(yè)務,從而形成有盈利的商業(yè)閉環(huán)。
但如果用GPT3.5的話,推理價格會大大降低。OpenAI在定價策略上為了打壓競爭對手,將GPT3.5的定價定的非常低廉,100萬token只需要1美元,而與其對應的同水平Llama2 70B模型在大多數(shù)情況下使用快速API,定價都要1美元/100萬token乃至更高。Mixtral-8x7b的價格也要0.7美元/100萬token,相對OpenAI的報價優(yōu)勢有限。當然開源模型還有本地部署的優(yōu)勢。在本地運行的情況下,其成本就只有硬件費用和電費了,這對于有云服務能力或者硬件基礎的大公司來說肯定是最經(jīng)濟的選擇。當然這種底子并非人人都有。
對于初創(chuàng)企業(yè)來講,想做個性化應用,更多是先要擁有自己的專有微調模型。這就涉及到微調訓練費用的問題。在開源模型上進行相應的訓練和微調的話,Llama2 的優(yōu)勢就很明顯了。云服務商Anyscale 提供的價格中,70b版本只需4美元/100萬token。GPT3.5則比它整整貴一倍要8美元/100萬token。所以當你想真正為自己的業(yè)務建構專用模型時,從成本角度看,開源模型還是有一定優(yōu)勢的。
在節(jié)省成本這方面,創(chuàng)業(yè)公司還能再精細化一步。很多公司都選擇了多種模型混用。通用大模型的性能固然出色,但是在實際應用中,使用中小型開源模型,并用特定數(shù)據(jù)微調,最終達到的效果可能更好。
如果用閉源模型,100萬token消耗速度很快,成本遠高于0.6美元每小時。LeptonAI創(chuàng)始人賈揚清曾經(jīng)在一次閉門活動中分享過:在北美,很多企業(yè)都是先用閉源大模型來做實驗(比如OpenAI的模型)。實驗規(guī)模大概在幾百個million(百萬token),成本大概為幾千美元。一旦數(shù)據(jù)飛輪運轉起來,再把已有數(shù)據(jù)存下來,用較小的開源模型微調自己的模型?,F(xiàn)在這已經(jīng)變成了相對比較標準的模式。
國內另外一家使用大模型構建業(yè)務的公司的相關負責人也表示,“企業(yè)級應用,不太會用到單一模型,現(xiàn)在已經(jīng)開始按照應用目的分模型了,但是跨系統(tǒng)調度的帶寬成本更高。所以,一個系統(tǒng)里面,有高中低(參數(shù))模型混合的模式是企業(yè)應用現(xiàn)在合理的方案。”
開源與閉源,并不是企業(yè)考慮的最核心因素,最優(yōu)性價比、企業(yè)的數(shù)據(jù)安全,能助力企業(yè)未來戰(zhàn)略的發(fā)展,可能才是選擇的優(yōu)先點。
開源閉源之爭,爭論的到底是什么?
李彥宏的開源觀點,之所以引起這么大的關注,也是因為,目前各家企業(yè)都在探索在大模型時代,如何找到PMF(Product Market Fit)。
百度對于公有大模型生態(tài)的布局,是比較早的,對于百度來說,模型本身也是產(chǎn)品。
據(jù)媒體消息,金沙江創(chuàng)投主管合伙人朱嘯虎在行業(yè)微信群中表示:“GPT-4能實現(xiàn)90%以上的商業(yè)需求,開閉源無所謂了,以后大模型API就是自來水的價格。但是用戶需要的是純凈水,氣泡水,烏龍茶……”
純凈水、氣泡水、烏龍茶是多樣化的產(chǎn)品形態(tài)思考,針對了用戶多樣化的需求。
發(fā)布會的第二天,賈揚清在朋友圈發(fā)表了一個觀點“我覺得Robin這點說得非常對,在初始的應用嘗試過去之后,模型的特化會是一個從效果上和從性價比上更加make sense的選擇?!逼胀ù蟊姷年P注點,可能是李彥宏在發(fā)布會上究竟說得對不對,產(chǎn)業(yè)內的人,關注的其實是,開源閉源爭論的背后,以模型作為產(chǎn)品的公司,究竟如何打造商業(yè)閉環(huán),未來的增長空間在哪里?!耙云脚_化產(chǎn)品,實現(xiàn)模型的特化部署、從訓練到商業(yè)化落地、到模型迭代再訓練,實現(xiàn)最高效率和最優(yōu)性價比?!?/p>
而開源模型的頭部企業(yè),如Meta,提供的是未經(jīng)封裝的更原始的技術創(chuàng)新。他們本身有雄厚的算力資源、研發(fā)團隊及資金實力,能夠以技術影響力,實現(xiàn)生態(tài)布局。最終帶來商業(yè)價值的,可能不是產(chǎn)品本身,而是基于生態(tài)衍生出來的更多的技術服務費用、咨詢費用等。
扎克伯格專訪中表示,如果模型本身就是產(chǎn)品, Meta會考慮停止開源,“也許模型最終更像是產(chǎn)品本身。我認為這時候,是否開源就是一個更棘手的經(jīng)濟考量了?!?/strong>
堅持Scaling law的閉源模型面對一個難解的矛盾,一方面,scaling law(規(guī)模定律)的路還沒走到盡頭,巨大的投入還將持續(xù),而且不能公開技術的秘密;另一方面,免費、高質量、有極高性價比的開源模型,又讓持續(xù)燒錢的閉源大模型壓力巨大。
就在最近,OpenAI頂著壓力修改了API付費模式,從先用后付,改成了pre-paid。對OpenAI來說,這樣的模式減少了壞賬率、增加了資金回籠的速度,從某些方面來講,可以稍稍緩解資金的壓力。但是從應用API的企業(yè)來講,按照之前的最長60天左右的賬期,等于企業(yè)增加了60天的資金占用成本。OpenAI變相漲價了。
在這個定價策略推出不久,Llama3就發(fā)布了中小規(guī)模版本。一個能和GPT-4差不多,而且優(yōu)化過性能,可以在小算力硬件下運行的模型,甚至直接給閉源模型帶來了一堆競爭對手。
性能優(yōu)秀的大規(guī)模開源模型,為其它科研機構及有更宏大目標的商業(yè)機構,提供了更好的技術參考路徑,可能大大提高科研效率、縮短到達目標的時間。而中小規(guī)模模型,確是商業(yè)上閉源大模型的競爭對手。
企業(yè)看到了基于開源中小模型,自己擁有私有模型、保障數(shù)據(jù)安全、搭建應用、上下游通吃,完成自我閉環(huán)的希望。
這全部的鏈條,其實也可以在模型公司的平臺上一站式完成,這部分的市場,其實被開源模型“無心”地侵占了很多。
從競爭的角度來講,如果Meta采取閉源的策略,在同一個賽道上,可能永遠都不能顛覆OpenAI成為引領者,而另辟蹊徑的開源策略,讓Meta搶到了開源大模型的頭把交椅,暫時坐穩(wěn)了另外一個生態(tài)的王座。而迅速開源Grok模型的馬斯克,也許暫時只是想給“Closed AI”和Sam Altman制造另外一個的競爭對手……
這場開源與閉源之爭的另外一個焦點人物是,“開源的堅決擁護者”周鴻祎。 其實周鴻祎和李彥宏,兩個人根本不存在對立的觀點。 周鴻祎主要從產(chǎn)業(yè)發(fā)展的宏觀方向來講,“我們要善用開源、利用開源,通過開源來學習,快速提高人工智能的核心能力。 ”他也補充了自己的觀點,開源和閉源是兩種不同的商業(yè)模式,沒有必要相互貶低。 安卓和iOS,Linux和Windows都是一個開源一個閉源,也都活得很好。 ”
從商業(yè)角度來講,360并不是一家模型公司,而模型也不是360的主要產(chǎn)品,這和百度是有本質區(qū)別的。360目前推出了AI瀏覽器,和AI辦公全家桶等基于模型的應用。開源生態(tài)越繁榮,這意味著,公司可以有更多樣的選擇。
也有公司選擇了既開源又閉源的雙輪驅動模式,以開源切入大模型賽道的百川智能,在發(fā)布完Baichuan-7B、Baichuan-13B開源大模型后,又拿出了Baichuan-53B閉源大模型。在Baichuan-53B發(fā)布會的媒體溝通會上,王小川被問到為什么沒有繼續(xù)開源,他回答稱:“模型變大之后沒有走開源的這樣一種方式,因為大家部署起來成本也會非常的高,就使用閉源模式讓大家在網(wǎng)上調用API”。
“1.關于開閉源之爭,核心是要看誰在開源。2.雙輪驅動,是一線創(chuàng)業(yè)AGI公司的唯一解?!备鶕?jù)第一財經(jīng)報道,百川智能CEO王小川在行業(yè)微信群討論中發(fā)表了以上觀點。王小川認為,“從To B角度,開源閉源其實都需要。未來80%的企業(yè)會用到開源的大模型,因為閉源沒有辦法對產(chǎn)品做更好的適配,或者成本特別高,閉源可以給剩下的 20%提供服務。二者不是競爭關系,而是在不同產(chǎn)品中互補的關系?!?/p>
開源和閉源,本來就不是單選題,而是一個綜合應用題。如果資源夠、決心夠,完全可以既通過開源顯示技術實力、獲得更多的技術和數(shù)據(jù)反饋、打造開源生態(tài);又通過強大的閉源模型將其封裝為產(chǎn)品,直接實現(xiàn)商業(yè)化變現(xiàn)。
王小川也認為,開源和閉源并不像手機中iOS或者安卓操作系統(tǒng)只能二選一,開源確實容易“建立人品”,“朋友多多的”,讓大家迅速了解和評測大模型的好壞。同時開源也是為商業(yè)化做準備,如果大家用起來覺得不錯,當需要更好的服務和更大的參數(shù)時,可以探索進一步的商業(yè)化路徑。
一場關于開源與閉源的爭論背后,其實是科技公司在大模型時代的開端認真思考的生態(tài)演變過程。
大模型的生態(tài)發(fā)展究竟會如何演變?大模型時代的開源,又會呈現(xiàn)出哪些不同的特點?
本文僅代表作者觀點,版權歸原創(chuàng)者所有,如需轉載請在文中注明來源及作者名字。
免責聲明:本文系轉載編輯文章,僅作分享之用。如分享內容、圖片侵犯到您的版權或非授權發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com