編者按:近期ChatGPT大熱引發(fā)了市場對于生成式AI和大模型的高度關注。作為人工智能領域領先且活躍的創(chuàng)業(yè)投資機構,啟明創(chuàng)投早在該領域進行布局,投資了多家企業(yè),包括近期推出1300億參數(shù)的超大規(guī)模預訓練模型GLM-130B的智譜AI、針對醫(yī)療領域開發(fā)模型和應用的無限光年、利用Open AI大模型能力打造聊天機器人的Gemsouls等。
日前,在創(chuàng)業(yè)邦開年直播特輯“XR&AIGC專場”中,啟明創(chuàng)投合伙人周志峰發(fā)表主題為《2023年AIGC向何處狂飆》的演講。他從投資和創(chuàng)業(yè)的角度,分享了生成式AI的技術和產業(yè)發(fā)展情況,啟明創(chuàng)投對于生成式AI的理解與布局,以及未來更值得關注的子領域等,他亦分析了生成式AI在中國面臨的挑戰(zhàn)和機會。啟明創(chuàng)投微信公眾號經授權轉載。
啟明創(chuàng)投合伙人周志峰
周志峰在主題演講中表示,GPT-3每做一次訓練預估要460萬美元。這幾周爆火的ChatGPT,其一次訓練的成本也是100多萬美元。未來怎么解決算力成本問題?
英偉達被美國政府限制向中國出口兩代旗艦高算力芯片A100和H100。國產的高性能AI芯片能否在超大規(guī)模預訓練模型的訓練中發(fā)揮作用?什么時候能夠發(fā)揮作用?是不是能夠滿足大規(guī)模集群的算力、互聯(lián)帶寬、算法適配和協(xié)同的需求?能不能降低成本?都是值得觀察的。
以下系經精編整理的周志峰演講實錄:
我是啟明創(chuàng)投的周志峰,今天的分享主題是《2023年AIGC向何處狂飆》。《狂飆》是一個大熱點,同時另外一個熱點就是生成式人工智能的范例之一ChatGPT。
01/
從判別式AI到生成式AI的飛躍
我希望從投資和創(chuàng)業(yè)的角度,跟大家分享生成式AI以及背后的技術和產業(yè)發(fā)展情況。
過去十年,啟明創(chuàng)投一直是國內非常活躍地布局人工智能的投資機構,我們投資了很多AI公司,也已經在人工智能生成式技術和超大規(guī)模預訓練模型技術上完成布局。其實過去一兩個月里,媒體、投資機構、咨詢公司都分享了很多對AI大模型的觀點,啟明創(chuàng)投認為,AIGC把人工智能技術帶向了一個新的高度,是人工智能發(fā)展過程中一個非常重要的拐點。
這一波的AI或者AIGC的大眾熱潮是自2022年的夏天,從圖文生成模型開始的。我用兩個全球最流行的文字到圖像生成模型Midjourney和Stable Diffusion生成了自己的各種各樣風格的頭像圖。
近一兩個月,生成式AI的主要熱點,就是基于對話生成的ChatGPT大型語言模型。為了創(chuàng)業(yè)邦的這個開年直播,我向ChatGPT提問,讓它幫我寫了一段演講開場白。這個過程中,我沒有做任何的額外訓練或微調,確實寫得非常流暢,也非常符合直播的主題。
如果下一次還有這樣的直播機會,我覺得我可以讓AI學習一下我以前的講演、發(fā)言等音頻數(shù)據(jù),融入創(chuàng)業(yè)邦直播的特點,用機器來合成出我的聲音,用Stable Diffusion模型生成配合直播主題的我的虛擬容貌,用CLIP模型和StyleGAN模型把單幀圖片擴展到完整的視頻流,并且同步我的情緒、口型、手勢、表情等等,然后用NeRF模型將我的虛擬人和空間背景合成。
制作出這樣一整套AI生成視頻流,我其實就不需要真正出現(xiàn)在鏡頭前。近年加速發(fā)展的AI生成技術讓我們真正感覺美好未來可期,這與10年前有著巨大的模式轉變。
過去十年,AI企業(yè)主要集中判別式AI的領域。我們耳熟能詳?shù)腁I企業(yè)和其核心技術,如圖像識別、人臉識別或語音識別等,都是根據(jù)輸入進行分析和判定。
但今天我們看到的這些則是生成式AI,根據(jù)輸入能夠生成全新的內容。從判別式AI到生成式AI,這是技術的一個很大的飛躍。
所以我們認為,2022年確實是AI技術發(fā)展過程中,星光璀璨的一年,它標志著AI技術發(fā)展到達了一個非常關鍵的拐點。
從產業(yè)界的角度看,我查詢了GitHub開源社區(qū)的數(shù)據(jù),在去年文字到圖片生成模型Stable Diffusion模型發(fā)布后,短短90天內,其開發(fā)者的認可度超過了3萬次,但比特幣Bitcoin和以太坊Ethereum的底層開源技術,則是用了八年的時間,才達到3萬次的認可,這說明Stable Diffusion的開發(fā)者采納速度遠超其他技術。
回望技術發(fā)展的歷史,電話用了75年才達到1億用戶,手機用了16年,F(xiàn)acebook用了4.5年,2011年推出的微信用了14個月。ChatGPT僅僅用了兩個月時間,就在全球達到了1億用戶數(shù),用戶增長速度非常驚人。
ChatGPT近期的火爆,不由得讓我們想起兩三年前一個同樣很火的應用Clubhouse,它是一個音頻社交App。它在2020年的年中上線,迅速累積了幾千萬的用戶數(shù),成立半年多,估值就達到了幾十億美元。但是在過去兩年中,Clubhouse的用戶的使用率下降了80%-90%。ChatGPT會不會也面臨同樣的問題,值得我們觀察。
看到這些爆炸式增長的產品,總讓我不由得思考,在未來幾年AI技術究竟是會繼續(xù)“烈火烹油,鮮花著錦”,還是最終“落了片白茫茫大地真干凈”?這是一個非常值得我們去持續(xù)探討和關注的話題。
02/
生成式AI的產業(yè)架構
接下來,我重點跟大家講講啟明創(chuàng)投對于生成式AI的理解?;谶^去兩年多的研究,我們畫出了這樣一張產業(yè)架構圖。基于這張圖我想跟大家分享一下怎么理解生成式AI以及它背后的大模型在技術世界中的位置。
在這個基礎上,也聊聊生成式AI與過去十年上一代AI技術的區(qū)別。然后,從投資人的角度,講講哪些子領域是更值得關注的。也包括這些不同的子領域如何能夠建立長期的競爭優(yōu)勢,以及生成式AI在我們國家有哪些挑戰(zhàn)和機會。
我們把整個生成式AI分成了三層。最底層稱之為生成式AI的基礎設施層。
工具鏈指的就是能夠幫助生成式AI以及它背后的大模型去做加速、壓縮的軟硬件技術,目的是在大模型進行訓練的過程中,幫其提升效率,降低成本,以及大模型在真正應用過程中更好地進行管理。工具鏈領域,海外公司有AnyScale,中國有像潞晨科技、面壁智能等創(chuàng)業(yè)公司。
右邊的智算平臺,主要指的是為生成式AI技術提供基礎算力的平臺。這一領域的參與者主要是科技大廠巨頭。比如為Open AI提供了幾億美元算力的微軟Azure,還有中國的阿里云、華為、曙光、浪潮等,都在中國各地建設了智算中心,核心是為AI提供底層算力。所以工具鏈與智算平臺組成了整個生成式AI的第一層。
中間則是最重要的一層,我稱為模型層,其中模型層又有三種類型。
最左邊是閉源模型,美國的人工智能研究機構Open AI從GPT3模型以后,不再公開源代碼和模型權重,而是把它的技術封裝成服務,即允許用戶調用其API,享受其AI能力。Open AI自己負責所有大模型的訓練、推理,不斷迭代。Open AI對外提供已經封裝好的AI能力,第三方公司甚至是個人都可以調用。此外還有Cohere、Anthropic,Anthropic剛剛成立兩周,就拿到了谷歌4億美元的投資。
國內的代表企業(yè),包括啟明創(chuàng)投投資的智譜AI。智譜AI是跟清華大學、北京智源人工智能研究院等一些第三方機構合作,訓練了幾個千億或萬億級別參數(shù)的大模型。包括最新推出的GLM-130B,這是一個1300億參數(shù)的超大規(guī)模預訓練模型。是國內大模型領域中,發(fā)展比較快的一家公司。此外,百度推出了文心大模型,它對外也是提供API,供第三方去調用使用。
本圖由智譜AI結合主題生成
中間這個叫做開源模型及Model Hub,可以理解為大模型的技術社區(qū)。它有數(shù)十萬個開源預訓練模型供第三方開發(fā)者使用,并且除了開源代碼和模型權重,還提供了很多輔助開發(fā)工具、數(shù)據(jù)集等,類似于一個開源社區(qū)的商業(yè)模式。
美國那邊起步比較早是Hugging Face,阿里云近期也發(fā)布了Model Scope。
最右邊的是從自建模型到開發(fā)應用的端到端模式,指的是科技公司或創(chuàng)業(yè)企業(yè)針對一些特定的領域,自行完成基礎模型的開發(fā),再針對目標市場和應用,進行模型、知識和數(shù)據(jù)的特定優(yōu)化,并開發(fā)出直接交付給用戶的應用產品。比如國外的Adept、Runway,國內的瀾舟科技、聆心智能,還有啟明創(chuàng)投投資的無限光年,針對醫(yī)療領域做自己的模型和應用。
第三層是應用層。這些應用,依賴于第二層底座模型進行開發(fā),這些應用公司不需要構建AI模型的能力,只需要調用第二層底座模型的服務,專注于自己的用戶和場景,把應用做好就行。
比如Jasper AI,它是一個利用Open AI的能力,給廣告主提供營銷文案生成的企業(yè),在過去兩年發(fā)展非???。去年,Jasper有將近1億美元的收入。但它的AI能力并不是自己開發(fā)的,而是由第二層底座模型提供的。
啟明創(chuàng)投投資的Gemsouls是一個利用Open AI大模型能力,開發(fā)聊天機器人的企業(yè)。
03/
從“大練模型”到“練大模型”
范式轉變的重大意義
這是我們對生成式AI生態(tài)的理解。把這個生態(tài)理解清楚了,就很容易看到生成式AI的未來。我特別喜歡北京智源人工智能研究院理事長張宏江博士說過的一個比喻,他覺得,過去的AI更多的是“大練模型”,也就是說每家科技公司都是各自獨立研發(fā)專用小模型。比如人工智能四小龍,基本上是從零開始自建模型,然后自建模型之上的特定應用。
今天這一代的AI技術,叫做“練大模型”,底座模型是由某些特定的機構研發(fā)出超大規(guī)模的通用模型。這個模型不再是針對某一個專門應用開發(fā)的,它的訓練數(shù)據(jù)是互聯(lián)網(wǎng)上能夠看到的所有數(shù)據(jù),數(shù)據(jù)也不需要做特別的標注,訓練也不需要監(jiān)督,做出來的是通用人工智能能力,然后第三方基于底座模型,針對千萬個應用場景去開發(fā)軟件。
這是一個從“大練模型”到“練大模型”的范式轉變,我覺得,這個范式轉變對AI未來十年、二十年的發(fā)展有重大意義。
我們認為,今天AI生成大模型是一個更先進的算法架構,集中了人類的全部數(shù)據(jù),匯集大量算力,集約化訓練,訓練出來的AI能力供應所有用戶使用,這其實才是十幾年前AI業(yè)內專家所設想的那樣,AI一定會成為類似“水電煤”一樣的人類的公共資源。只有這樣才能做到AI技術賦能萬業(yè)。
04/
更具投資和創(chuàng)業(yè)價值的生成式AI子領域
哪些模塊是啟明創(chuàng)投認為更具有投資和創(chuàng)業(yè)價值的領域?智算平臺更適合有規(guī)模效應,如已有的公有云平臺,或者數(shù)據(jù)中心運營方介入,不是創(chuàng)業(yè)公司適合進入的領域。
工具鏈隨著大模型持續(xù)發(fā)展迭代,用更好的工具去幫助大模型的訓練和管理以降本增效,一定是有機會的,且會有一些頂級AI工程人才不斷進入,我覺得這肯定是一個很標準的VC投資機會。
在閉源模型及API服務領域,未來肯定也會看到越來越多科技大廠進入,是不是還有創(chuàng)業(yè)公司進入的機會,我覺得值得觀望,因為這對于人才密度的要求和資本的投入是巨大的。我前段時間跟幾位中國AI行業(yè)頂級研究人才聊,他們認為,目前中國真正掌握大模型架構能力的人,可能也就100多人。
所以,如果有人出來創(chuàng)業(yè),那肯定也就是100多人中的一部分,其背后可提供的頂級人才基數(shù)并不是很大。
另外,訓練大模型需要很多的資本投入。跟大家舉個例子,Open AI的GPT3模型是用了NVIDIA的上千張旗艦級GPU芯片A100,用了大概120天的訓練周期,2年前訓練一次要460萬美元。GPT3訓練的總投入達到了數(shù)千萬美元。
這是一個巨大的投入,每做一次訓練,研發(fā)人員承擔著幾百萬到上千萬的成本,如果訓練結果失敗了,幾百萬就打水漂了。它意味著,只有頂級的人才,才擁有這種頂級資本的支持,才能去做這件事。
利用第三方的底座模型構建應用的方式,我覺得是未來的主要趨勢,相信會有成千上萬家創(chuàng)業(yè)公司涌入這個市場。對于創(chuàng)業(yè)者而言,他們對某一個場景或者行業(yè)非常懂且有超出業(yè)界的認知,他們看到了生成式AI的能力,兩者結合去顛覆這個場景或行業(yè)。不用從頭構建AI能力,只需要直接利用這些底座模型。
某些特定的領域、行業(yè)、場景,可能會有一些創(chuàng)業(yè)者選擇從頭做,自建模型及應用,端到端進行特別優(yōu)化,我覺得也是有機會的。因此,以上這幾塊是我們認為,生成式AI從創(chuàng)業(yè)投資角度來講最有機會的領域。
公司怎樣創(chuàng)造一個長期的、持久的競爭優(yōu)勢,建立護城河?
比如,利用第三方底座模型構建應用,那么你在AI層面是沒有任何競爭優(yōu)勢的,因為你可以去調用Open AI,其他競爭對手也可以。那么,你長期存在的護城河到底是什么?我覺得這是非常值得去想清楚的,因為過去的三四個月中,我看到了中國有上百個團隊進入這個領域,這也是每次跟他們探討時會去問的問題,希望能夠聽到一些更深入的思考。
自建模型的應用,針對某一個場景應用優(yōu)化自己的模型,然后把應用層也做起來。這個聽起來非常有道理,但大模型機構用上億元的代價去訓練和迭代模型,他們的模型的先進性會不會比你要更強?有其他人利用先進模型構建與你同一領域的應用時,你的自建模型應用要如何走得更遠?這些都是沒有答案的問題,都是值得創(chuàng)業(yè)者去思考的問題。
05/
忽略炒作周期
建立無聊生意
最后,關于中國在生成式AI和底座大模型的一些挑戰(zhàn)。
我覺得,首先是算力問題。我前面講到,GPT-3每做一次新的訓練要460萬美元。
這幾周最火的ChatGPT,其一次訓練的成本也是100多萬美元。我們投資的智譜AI已經把這個訓練成本降低到幾百萬元人民幣,但依然非常貴。未來怎么解決算力成本問題?尤其是這些大模型,過去都是用的NVIDIA的旗艦芯片做訓練和推理,但是自從去年十月以后,A100和H100等高性能芯片對中國有了出口限制。我們怎么用國產的AI芯片進行替代,并降低成本?國產的AI芯片是不是能夠及什么時候能夠滿足大規(guī)模集群的算力、互聯(lián)帶寬、算法適配和協(xié)同的需求,都是值得我們去觀察的。
第二個,過去一周很多人說國內的科技大廠和創(chuàng)業(yè)公司推出的大模型與ChatGPT是有代際差別的,我們落后了至少一代。在看Open AI的發(fā)展時會發(fā)現(xiàn),ChatGPT也好、GPT-3也好,是需要很長時間研發(fā)積累的。
Open AI是2015年年底成立的,2018年推出了第一代GPT-1,當時包括中國在內的全球大部分企業(yè)和機構還在做Bert方向的嘗試,是有一定區(qū)別的。2019年,它推出了GPT-2,有15億參數(shù),2020年推出了GPT-3,有了1750億參數(shù)。Open AI已經積累了這么多年才達到今天的能力,中國企業(yè)要去追趕,肯定是需要時間的。GPT-4今年又要發(fā)布了,是否會把我們甩出兩個代際的差距,這也是值得觀察的。
中國在大模型的研發(fā)上,需要給自己更多的時間發(fā)展,才能夠慢慢地達到全球領先水平。
第三點,更重要的是,因為GPT大模型的發(fā)展比較早,并且已經向世界展示出它的能力,所以它已經在慢慢形成自己的生態(tài),有600多家創(chuàng)業(yè)公司在直接利用Open AI GPT-3模型來構建自己的應用。
包括一些比較有名的科技公司,比如微軟上個月宣布,從搜索引擎到Office等所有產品,都會全面擁抱GPT-3的AI能力。在線文檔Notion也已經在產品中植入了生成式AI的能力。
圍繞著Open AI或者西方科技大廠的大模型已經構建出了一個初步的生態(tài),國內科技大廠或者創(chuàng)業(yè)公司的大模型在技術和工程上,有很多的地方需要不斷追趕,如果只是訓練出大模型,沒有人去用,缺少完整生態(tài),也是沒有任何意義的。
最后,我還是非常堅定地看好生成式AI和大模型,它的出現(xiàn)標志著一個巨大的AI開發(fā)范式的轉換,將會真正被利用到更多應用場景。但現(xiàn)在也處于科技的炒作周期,疊加了很多情緒和期待,一位美國AI研發(fā)人員說,ignore the hype cycle, build boring business,忽略這種短暫的炒作周期,而是去建立“無聊”的生意。
真正的AI能力體現(xiàn),并不僅僅局限于作畫、對話聊天這些看起來很好玩的領域。AI對人類的意義,是走進各行各業(yè),融入現(xiàn)有產業(yè)的工作流,并且提供更高的商業(yè)價值,它遠比我們今天看到的一些示范性的To C應用更有價值。但要把AI這種能力應用到很多產業(yè)中去,其實是一件很“無聊”的事情,不僅需要AI大模型能力,也需要踏踏實實的長時間投入,去和產業(yè)做結合。
希望看到這個直播的創(chuàng)業(yè)者,能夠對生成式AI有足夠信心,同時還需要很多的耐心,利用技術踏踏實實構建To B的產業(yè)應用,這才是對我們人類社會最有價值的貢獻。
所以,AI技術又上了一個臺階,這件事已經沒有什么疑問了,特別期待能夠看到中國有更多研究人員、產業(yè)界從業(yè)者,以及創(chuàng)業(yè)投資機構一起努力,利用AI技術的進步,真正帶給人類更大的福祉。
以上就是我的分享,謝謝大家。
來源 | 創(chuàng)業(yè)邦