編者按:在由啟明創(chuàng)投主辦的2023世界人工智能大會“生成式AI與大模型:變革與創(chuàng)新”論壇上,人工智能等技術前沿領域的著名專家與學者,頂級投資人和領軍創(chuàng)業(yè)者匯聚一堂,共同探索中國科技創(chuàng)新的驅動力量。
本次論壇是大會唯一一場由創(chuàng)投機構主辦的相關論壇,立足創(chuàng)業(yè)與投資視角,分享了最新生成式AI前沿信息和實踐探索。
啟明創(chuàng)投合伙人周志峰代表啟明創(chuàng)投重磅發(fā)布了與未盡研究合作的《生成式AI》報告,并進行深度解讀。這是行業(yè)首份基于對海內(nèi)外逾百家企業(yè)深入調(diào)研撰寫的生成式AI洞察報告。
該報告全方位呈現(xiàn)了生成式AI整體框架、產(chǎn)業(yè)圖譜,生成式AI與大模型企業(yè)的定價模型,全球AI人才分布、優(yōu)勢領域、全球頂尖AI從業(yè)者聯(lián)袂推薦的必讀論文,以及在大語言模型、多模態(tài)模型、商業(yè)發(fā)展上的十大展望等一系列備受關注的話題。
以下為精編整理的解讀內(nèi)容。
在座的各位嘉賓,以及在網(wǎng)絡上收看直播的觀眾們:
非常榮幸,我們能夠在這里向在座的各位嘉賓、線上的各位觀眾發(fā)布生成式AI的行業(yè)報告。
這份報告由啟明創(chuàng)投和未盡研究合作撰寫。這是啟明創(chuàng)投第一次發(fā)布生成式AI的報告,據(jù)我所知也是創(chuàng)投行業(yè)第一次由一家機構來發(fā)布生成式AI的報告。
先和大家匯報一下這份報告的基本調(diào)研方法。
我們主要的素材來源,第一肯定是中國市場中這些非常多元化的、非常優(yōu)秀的創(chuàng)業(yè)團隊。不算舊瓶裝新酒進入到生成式AI這個浪潮中的公司,在2020年GPT-3引發(fā)了生成式AI這個技術變革之后新成立的公司,我們見過近200家,并從他們當中學到了很多的信息。
我的同事也一直在密切地追蹤和分析中國以外的公司。我們追蹤過大概600家在美國的生成式AI公司。
同時最重要的就是包括在場的很多演講嘉賓在內(nèi),啟明創(chuàng)投AI朋友圈當中的創(chuàng)業(yè)者、科技大廠AI從業(yè)者、學術研究機構中的學者,我們跟他們做了非常多次的一對一交流,他們的洞見是支撐我們報告的最重要的基礎。
未盡研究對全球百篇生成式AI的論文進行了梳理,也對全球主要國家的AI監(jiān)管與安全政策進行了研究,有很深入的分析。
我們也利用清華大學計算機系的Aminer平臺,抽取了AI全球頂級學者的信息進行了分析。上述這些是我們本次報告的基本調(diào)研方法。
01/
生成式AI新浪潮的生態(tài)架構及新物種
在之前的環(huán)節(jié)提到了我們?nèi)绾慰碅I新浪潮的生態(tài)系統(tǒng)——三層架構:基礎設施層、模型層和應用層。
以這個三層架構為框架,我們可以通過一些具體的例子感受企業(yè)是怎么在這三層上分布的。這個新的框架中誕生了很多企業(yè)新物種。
英偉達從1993年成立,過去幾十年中,主要是面向圖形和通用計算來做GPU。因為AI的新浪潮,它現(xiàn)在進入到了云服務。未來它會不會成為一個新的公有云的提供商,而且是一個專門面向生成式AI的新的公有云的提供商,這是非常值得思考的問題,它現(xiàn)在已經(jīng)在底層做了這么多的布局。
像傳統(tǒng)科技巨頭,比如微軟,以前更多的是做應用,現(xiàn)在有模型層、云服務,也做芯片了。因為它知道給自己的模型和應用,用什么樣的芯片做優(yōu)化更合適。
SaaS領域的巨頭Salesforce,以前是做應用層的,現(xiàn)在也做自己的模型。不同的企業(yè)都在變化,快速地迎合生成式AI技術的發(fā)展。彭博Bloomberg在3月份發(fā)布了一個專門面向金融領域的大模型,以前我們說它是一個信息提供商,現(xiàn)在也開始做AI。
還包括像智譜AI這類基礎模型公司,提出了Model as the Sevice這種全新的商業(yè)模式,對外輸出模型能力,把模型作為一種服務,這也是非常好的新模式。
在三層架構中,各種各樣的公司都在不斷地演進,變成了和以前完全不一樣的形態(tài)。
02/
生態(tài)架構中每一層的定價研究
我們是一家創(chuàng)投機構,我們希望從企業(yè)使用生成式AI的成本、定價的角度,能夠給大家提供一些分析。這樣不同的企業(yè)在進入這三層中的任何一層的時候會有一個參考,是否應該進入、在這一層中有沒有自己存在的空間和地位?
第一個定價研究是基礎設施層。我們以AWS為例,AWS是全球最大的算力服務公有云提供商。以現(xiàn)在一個比較標準的配置,在AWS上租用一臺A100服務器,包括8塊英偉達的GPU,然后配上NVLink、Infiniband網(wǎng)絡等配置。現(xiàn)在AWS、微軟,火山引擎、華為云、阿里云,這種配置的算力資源太搶手了,創(chuàng)業(yè)公司都搶不到,大廠自己都不夠用。如果按AWS現(xiàn)在的價格,能夠維持百分之百的使用率,毛利率水平可以達到80%以上,這是非常驚人的。我們以為公有云是一個資產(chǎn)密集型的產(chǎn)業(yè),但是它可以實現(xiàn)這么高的毛利率水平,基本上是各行各業(yè)中最頂級的毛利率水平。
如果未來無論是需求側下降了,還是供給側進一步地提高,或者是像壁仞科技這樣的企業(yè)提供性價比更好的芯片,當AWS上算力租用的利用率下降到50%左右的時候,毛利率會下降到63.6%。毛利率水平也很高了。這一層肯定是未來幾年生成式AI發(fā)展中非常獲利的一層。
其次是模型層。大家不斷聽說OpenAI訓練一個大模型要幾千萬美元,這是一家初創(chuàng)公司能夠承受得起的嗎?除了科技大廠,創(chuàng)業(yè)公司訓練大模型還有意義嗎?這個問題在過去半年說得最多,我們算一下賬,到底需要多少錢?
模型算力支出可以分為訓練和推理。每參數(shù)每token的算力需求是常數(shù),訓練上是6 FLOPS,也就是每秒鐘需要6次浮點運算,可以完成一個參數(shù)上一個token的訓練。推理是2 FLOPS。
舉個例子,OpenAI著名的GPT-3是1750億參數(shù),它一共使用了3000億個token進行訓練,怎么計算算力需求?1750億乘以3000億,乘以6 FLOPS,得出的就是訓練這個模型大概所需要的算力。
壁仞科技合伙人梁剛博士介紹了像壁仞科技和英偉達等單卡GPU能夠提供的FLOPS也是一個常數(shù)。
還要考慮的是算力使用效率。好的團隊,能做到60%、70%或者80%,不好的團隊同樣用這樣的算力設備,可能只能發(fā)揮出20%-30%的算力效率。所以,還要乘以50%的平均使用效率,可以得到它最后的訓練和推理成本。
2020年的時候,英偉達的主流旗艦GPU是V100,GPT-3需要1400萬美元訓練一次,非常昂貴。那個時候,當研發(fā)人員按下訓練開始鍵的時候,和火箭發(fā)射一樣的昂貴,如果這個鍵按下去訓練失敗了,1400萬美元就沒有了。2022年A100逐漸成為大家訓練模型的主力配置,由于A100本身性價比的提升及各自團隊算力使用效率的提升,同樣GPT-3模型的訓練成本變成了100多萬美元。
現(xiàn)在更主流的配置是H100和H800,比A100的性能提升了3倍以上,那大模型的訓練成本肯定進一步下降。
大家經(jīng)常會問中國公司有沒有機會趕上或者超越像OpenAI這樣頂級的大模型公司?起碼從算力成本角度來看,是有這個機會的,訓練一個新的大模型的成本越來越低,不再是一個大的壁壘了。
還有一點,我們在報告中計算了AI對算力需求的增長,是遠遠大于摩爾定律的。芯片是18個月transistor的密度翻了一倍,AI模型對算力需求的增長是差不多3個月翻一倍。解決未來生成式AI的發(fā)展,肯定不能單靠芯片公司的半導體制程的進步,一定要提高算力使用效率,怎么把這個效率提升到80%、90%以上,這是我們認為創(chuàng)業(yè)非常有機會的地方。啟明創(chuàng)投也是提前布局了這個領域的公司,如何在英偉達、壁仞科技的GPU上提升訓練和推理的效率,讓整體成本下降,把整個產(chǎn)業(yè)推上一個臺階。
最后一層是應用層定價。這一層也很有意思。應用層定價與具體的應用場景是強相關。
比如應用的用戶規(guī)模,如果是一個企業(yè)有2000人,我的應用主要給這2000人用,用戶規(guī)模不大。對比一個互聯(lián)網(wǎng)大廠推出的社交軟件,例如有10億月活。使用量規(guī)模對算力的要求是完全不一樣的。
另外是應用的使用頻度。有些應用每天可能就用一次,有些應用一天調(diào)用AI模型可能是100次以上。
第三是推理的輸入,要輸入一個prompt,有的應用的輸入詞很短,有的需要輸入一整篇文章,成千上萬個token。
最后是推理輸出的內(nèi)容,有的很簡短,有的要長很多。以上這些都大大影響了應用公司的成本結構。
比如查詢工具,我的同事想查一下啟明創(chuàng)投員工過去六個月誰的開銷最高?這個只有幾十個token的輸入,是很短的輸入,回答可能也很短,告訴你開銷最高的人的名字和金額。這類應用單日大模型調(diào)用的成本在幾百到幾千美元水平。這類應用的一個SaaS公司,達到了千萬DAU,單日成本是2萬美元。如果是一個金融機構,應用是做行業(yè)研究,要在AI大模型中輸入一個比較長的查詢,甚至有一些輔助性的行業(yè)報告要放進AI模型中,最終得出一個行業(yè)分析,很顯然這個輸入和輸出是長文本的,則單日成本就會上升比較大。高頻的場景,如社交應用,一個用戶每天和大模型對話200次以上,用戶量上去之后,一天的成本可以達到幾十萬到幾百萬美元。
03/
生成式AI將永久改變企業(yè)經(jīng)營
生成式AI會帶來三類企業(yè),第一個是守成者,這類企業(yè)是否能夠積極采納生成式AI技術去提升自己的產(chǎn)品,是企業(yè)存亡的關鍵。如果能夠積極使用生成式AI的技術增強已有產(chǎn)品,那新產(chǎn)品是不是可以比現(xiàn)有產(chǎn)品定更高的價格?如果可以的話,利潤就會上漲,如果不能提價,等于多了AI技術的新成本,利潤就會下降。
第二類是創(chuàng)新者,是挑戰(zhàn)者角色,會積極通過生成式AI打造產(chǎn)品服務,實現(xiàn)創(chuàng)造新場景或者是重塑舊場景。他們可以獲得一個新的溢價。減去現(xiàn)有的成本,利潤率會顯著提高。
最后是采納者,他并不會用AI改善自己對外輸出的產(chǎn)品,只是用AI來做企業(yè)內(nèi)部的管理,以降本增效為主。這一類企業(yè)取決于降本的幅度有多大,否則AI反而會成為公司額外的新成本項。我們認為未來公司會是三個品類中的一個。
這個數(shù)據(jù)很有意思,我們在今年的3月底、4月初對外發(fā)布了截至2023年3月我們見過的100多家中國的生成式AI公司。這些企業(yè)是在2020年GPT-3發(fā)布后新成立的,分類主要是語言類應用和多模態(tài)應用。語言類大部分做聊天機器人;更多的是多模態(tài)應用,大頭是生產(chǎn)力工具,做一些廣告文案、廣告配圖等等,還有的企業(yè)會做短視頻廣告。這些應用企業(yè)占比比較大,相比之下做底層技術的比較少。三個月過后,還是發(fā)生了很大的變化。
第一,語言類應用中的智能助手增多了,而且主要是有多年細分領域的積累和經(jīng)驗的老兵入局了,會聚焦做一個非常細分的智能助手,面向場景的深度更深。
第二,很明顯的是底層技術的公司占比明顯增大,一批AI界的大牛開始出來創(chuàng)業(yè)了,其中有做通用大模型的,有更多的做垂直領域的垂域模型,有做工具鏈來提升模型訓練和推理的效率的,這個占比變得更大。
04/
十大論文及人才分布
我們咨詢和調(diào)研了全球大概100多位頂級的AI業(yè)內(nèi)領袖,包括科技大廠AI團隊、頂級研究機構、AI創(chuàng)業(yè)者。我們問的是,生成式AI技術對你影響最重要的三篇論文。十大論文是統(tǒng)計出來排名前十的論文。
比如大家經(jīng)常說大模型是Transformer架構的,說AI 1.0的CNN網(wǎng)絡(卷積神經(jīng)網(wǎng)絡)過時了,但是卷積神經(jīng)網(wǎng)絡的復興這篇論文依然是大模型從業(yè)者重點關注的一篇論文。
智能涌現(xiàn),這肯定是大家談論最多的論文。
人才分布主要是利用清華大學計算機系的Aminer系統(tǒng)抽取的數(shù)據(jù)??慈?000名頂級AI科學家,你會發(fā)現(xiàn)美國和中國的情況很不一樣。美國的頂級AI科學家在谷歌、微軟、臉書、亞馬遜、蘋果這些科技企業(yè),排名中間也有麻省理工、斯坦福這些大學,但是在中國,第一名是清華大學,前十排名中僅有一家企業(yè)——阿里巴巴,其他都是大學。也許這說明中國企業(yè)對于AI底層技術研究的布局,跟美國的科技大廠不太一樣。
05/
十大展望
最后,我們希望在報告中大膽預測,給大家一些展望,這些展望的基礎也不是閉門造車,是向我們的AI朋友圈學習后的思考。
第一,以我們觀察到的進展,在2024年,甚至更早,中國會出現(xiàn)比肩GPT-4的多語言模型。
第二,超長上下文(Long Context)是下一代大語言模型發(fā)展的重點。超長上下文,可以使得人與機器進行幾天、幾個月的持續(xù)交流,而不是現(xiàn)在只能聊幾個輪次,機器就忘掉了之前的信息。
第三,我們認為做垂類大模型有多種方法,這三種會比較常見:
在不改變數(shù)據(jù)分布的情況下,利用更多通用數(shù)據(jù)進行通用大模型預訓練,不特別引入行業(yè)數(shù)據(jù);利用行業(yè)專屬數(shù)據(jù)微調(diào)(Fine-Tuning)通用大模型;利用行業(yè)數(shù)據(jù)占比更高的數(shù)據(jù)集進行垂直模型預訓練。
第四,我們認為盡管今天CLIP+Diffusion這種模型架構影響力很大,但在未來的兩年內(nèi)會出現(xiàn)新架構的文生圖模型。
第五,這種文字到圖像的模型,未來將具備更強的可控性。我們已經(jīng)看到了很多業(yè)內(nèi)的頂級團隊在這方面有新突破。
第六,今年第三、四季度會是文字到音樂生成模型的展現(xiàn),我們相信明年視頻和3D的生成會有更大的突破。
第七,利用PALM-E做具身智能,把AI大模型跟人類物理空間中的機器人等執(zhí)行器做結合會有重大發(fā)展。
第八,Transformer雖然現(xiàn)在是主流模型架構,模型是為了更好地壓縮全人類的數(shù)字信息,Transformer一定不是終局,還會有更先進的網(wǎng)絡結構出現(xiàn)。
第九,我們認為在未來三年內(nèi),模型能力與應用無法解耦,真正顛覆性的應用一定出自掌握底層模型研發(fā)能力的企業(yè),而不會是一家純粹利用第三方大模型能力做應用的公司。
第十,現(xiàn)在依然是一個可以產(chǎn)生平臺性企業(yè)的黃金期,我們相信在近三年中成立的一些創(chuàng)業(yè)公司可能有機會成長為千億、萬億市值的公司。
請關注啟明創(chuàng)投公眾號
在后臺輸入“生成式AI報告”
獲取完整報告下載方式