以下文章來源于智能涌現(xiàn) ,作者周鑫雨
編者按:啟明創(chuàng)投投資企業(yè)智譜AI近日推出新一代視頻生成模型CogVideoX,用戶可通過智譜清言的AI視頻生成功能清影(Ying),體驗AI文本生成視頻和圖像生成視頻的服務。發(fā)布僅6天,清影生成視頻數(shù)突破百萬量級。智譜AI日前宣布將開源CogVideoX,讓每一位開發(fā)者、每一家企業(yè)都能自由開發(fā)屬于自己的視頻生成模型。
智譜AI首席執(zhí)行官張鵬在與36氪的對話中,介紹了智譜AI在視頻生成領(lǐng)域的布局,并指出視頻生成相較圖像、語言生成還需考慮數(shù)據(jù)、算力。張鵬分析了模型研發(fā)中先發(fā)者和后發(fā)者的優(yōu)劣勢;圍繞多模態(tài)技術(shù)路線,他分享了智譜AI“由下至上,再從抽象層面往下去解”的路徑。他還強調(diào)了預測是每位智譜AI員工的必備技能,“一流的公司滿足需求,偉大的公司創(chuàng)造需求”。
啟明創(chuàng)投微信公眾號經(jīng)授權(quán)轉(zhuǎn)載。
智譜AI首席執(zhí)行官張鵬
“GPT-4之前的產(chǎn)品,大家基本能人手一個拿出來;但GPT-4以后的產(chǎn)品,誰都不敢隨便拍胸脯保證一定能成了?!?/span>
在智譜AI首席執(zhí)行官張鵬看來,2024年,中國國內(nèi)的AI企業(yè)來到了一個必須自力更生、打開技術(shù)“黑盒”的拐點:“OpenAI公布的技術(shù)細節(jié)越來越少,但好處是,我們不可能永遠跟在OpenAI后面,總有一天要用自己的路徑跑到前面。”
在拐點中,從底座到產(chǎn)品完全自研的視頻生成模型,是這家大模型獨角獸交出的階段性答卷。
2024年7月26日,智譜AI的產(chǎn)品版圖中,增加了對標OpenAI視頻生成模型Sora的一員:支持文生和圖生的視頻生成產(chǎn)品“智譜清影”。
在國內(nèi)外廠商競相發(fā)布視頻生成模型的當下,張鵬并不認為智譜AI姍姍來遲。支持“智譜清影”的模型底座,來源于智譜AI自研的CogVideoX模型——這個名為“CogVideo”的視頻生成模型系列,是智譜AI在2021年就布局的多模態(tài)研究的一角。
如今,CogVideoX的推理速度已經(jīng)提升了6倍,“智譜清影”生成6秒視頻的時間,理論上只要30秒左右。
在“智譜清影”中輸入文字Prompt
在“智譜清影”中輸入圖片Prompt
再輸入文字Prompt“男孩拿出一顆心形的紅色毛線球在手掌心”
即便Sora的發(fā)布,為企業(yè)的追趕指了一條明路,在張鵬對36氪的描述中,“苦干”依然貫穿了視頻生成技術(shù)研究的全程:沒有OpenAI那樣優(yōu)渥的資源,那就尋找更高效、更經(jīng)濟的解決辦法;沒有足夠的原生視頻數(shù)據(jù),那就找合作廠商,再從定義質(zhì)量標準、清洗、標注的臟活做起。
技術(shù)研究要苦干,技術(shù)落地也少不了苦干。對AI技術(shù)在B端和C端的落地成果,張鵬都認為還不夠好,在他看來,PMF(產(chǎn)品市場匹配度),M(Market)中的新場景、新市場,F(xiàn)(Fit)所代表的技術(shù)和產(chǎn)品的性價比,都沒做到極致。
這讓他給智譜AI的所有員工提出了更高的要求:學會預測技術(shù)的發(fā)展和行業(yè)的走向——“一流的公司滿足需求,偉大的公司創(chuàng)造需求”。
以下系經(jīng)精編整理的對話實錄。
01/
跑出增量的下一步
36氪:這一年時間,AI行業(yè)To C和To B的成果,哪個讓你比較滿意甚至驚喜?
張鵬:嚴格說,撇開我的身份,我個人覺得都不如我的預期,至少國內(nèi)是這樣。前段時間參加WAIC(世界人工智能大會),我覺得情況有所改變,但還沒真正達到大家期待的爆發(fā)狀態(tài)。
36氪:那智譜AI在To C和To B的成果,你滿意嗎?
張鵬:公司的運營或者說目標的設(shè)定有一定的戰(zhàn)略,也在按照計劃去推進,有得有失,有成有敗,這個都很正常。
我們最近,可能大家看到的動作比較多,做了一些發(fā)布。過去我們主要在B端市場做了一些事情,取得了一些成績,但你要說完全滿意,當然還談不上。畢竟大家都知道,這個市場很“卷”,競爭很激烈。
至少我們的競爭對手,在大家心目當中已經(jīng)是大廠的級別,我們已經(jīng)躋身到這樣一個級別了。我覺得這一點也側(cè)面證明了我們的進步。當然從我個人來講還遠遠不夠,還要繼續(xù)努力。
36氪:一年多來,大模型的B端落地成果,會讓你對AGI的信仰有改變嗎?
張鵬:會,我覺得To B是一個很重要的環(huán)節(jié)。
像一些很細分的行業(yè),比如客服、營銷,AI的滲透應該是非常明顯的,而且改善的效果也非常好。現(xiàn)在無非就是性價比的問題,這也是為什么OpenAI會發(fā)GPT-4o mini這個小規(guī)?;蛘咧械纫?guī)模的模型,去降低成本、提高速度。
小模型的出現(xiàn)意味著模型落地已經(jīng)找到了PMF里面的“M”(市場),現(xiàn)在需要解決“F”(匹配度)的問題。在更大范圍之內(nèi),其實“M”到底是什么,也還在想辦法解答。比如能解決人機對話的模型,能不能同時解答天氣預報的問題?你要不要把它們做成同一個東西?有沒有可能做成同一個東西?
36氪:現(xiàn)在還處于找M的階段嗎?還沒有到找F、擴大M份額的階段?
張鵬:不,這首先是一個尋找M的過程,所有細分的M不可能一次性都能解決,總有容易解決的和難解決的。先找到的M就先落地,落地就要解決F的問題。
36氪:有一點像在B端找Killer App(殺手級應用)。
張鵬:是的,其中技術(shù)和場景雙方往中間靠,去磨合。
一種是在有些場景,原來的技術(shù)解決得不太好,我能不能用技術(shù)把質(zhì)量再提高一點,也就是增效。另一種是說,我能不能用技術(shù)解決原來解決不了的問題,這個就是新的M、新的問題、新的場景。
36氪:現(xiàn)階段哪種情況花的時間更多?在舊市場里解決問題,還是找新市場?
張鵬:兩個肯定是同時來做。解決舊問題和提效是最直接,因為企業(yè)是很現(xiàn)實的,看到效益才會投入。但我相信AI技術(shù)本身是突破性和創(chuàng)新革命性的,它理應會有一些新的應用方式和市場空間出現(xiàn)。
36氪:現(xiàn)在能看到新行業(yè)或者新場景的苗頭了嗎?
張鵬:其實各行業(yè)已經(jīng)跑出來了一些增量,一些常見的問題解決效果已經(jīng)非常好了,后續(xù)要解決的無非就是F的問題,比如怎么把性價比做得更高。
還有一些全新的,以前方法完全解決不了的問題,現(xiàn)在逐漸有了一些方法。比如去比較智能、動態(tài)、全面地生成一篇報告,傳統(tǒng)的AI搞不定,你只能讓人先定好一些模板,剩下的事情不過就是用規(guī)則,用一大堆提取、數(shù)據(jù)、結(jié)構(gòu)化的東西往里填,其實談不上有太多的人工智能,它只是個IT系統(tǒng)。
但現(xiàn)在的技術(shù)具備了一定的像人一樣的分析能力,你可以讓它學習完后自己按照套路去寫、去發(fā)揮。
02/
后發(fā)者贏在少走彎路
但輸在建立認知
36氪:智譜AI是從什么時候開始布局視頻生成的?
張鵬:我們2021年左右,很早就在做這個事情,包括最早的CogView(智譜AI的文生圖模型)是和DALL·E差不多時間發(fā)布的。
迭代了兩版后,在2022年之后,我們開始做CogVideo,也就是視頻生成,因為大家直覺覺得,反正圖片連續(xù)起來就變成一個視頻了。當時因為比較早期,數(shù)據(jù)資源等各方面還處于剛開始的研究階段,所以CogVideo主要解決的還是怎么控制每一幀之間平滑過渡的問題,生成的視頻就沒有現(xiàn)在這么高清。
36氪:從圖像和語言模型,到視頻模型,需要補上什么資源?
張鵬:視頻和圖像的生成確實還隔了一道,比如數(shù)據(jù)的問題、算力的問題。
資源需要遵循循序漸進的技術(shù)路線。從自然語言開始,解決的是理解和生成正確指令的能力,實際上是從基礎(chǔ)的認知層面、高層次的抽象認知層面去解決這個問題,然后再把維度降下來,把理解和生成的能力具象化到圖片、視頻、聲音等模態(tài)上。
在降維的過程中就會受到數(shù)據(jù)的約束。圖像生成的數(shù)據(jù)可能會比較多,因為早期CV(計算視覺)有了大量的積累。但對視頻生成來說,全球范圍內(nèi)高質(zhì)量的數(shù)據(jù)積累只有兩三年的時間。
36氪:怎么解決視頻數(shù)據(jù)的獲取問題?
張鵬:我們手里沒有原生的一些資源,所以獲取視頻的主要方式還是通過公開的數(shù)據(jù)集,另外還有一些合作方。
當然這些視頻和所謂的高質(zhì)量視頻數(shù)據(jù),還是不太一樣。比如視頻拍得很高清,濾鏡、分鏡都很不錯,但這個對于模型訓練來說還不夠。“高質(zhì)量”里面包含了原始數(shù)據(jù),和你對原始數(shù)據(jù)的加工技術(shù)。條件都不具備的情況下,強行做視頻生成模型,是挺麻煩、挺累的。
不過原生數(shù)據(jù)的獲取是有解法的,比如與視頻平臺建立合作,現(xiàn)在不管哪個短視頻平臺,手里都積累了大量的視頻數(shù)據(jù)。但我覺得最大的問題是,即便互聯(lián)網(wǎng)充斥著大量的數(shù)據(jù),但你不太清楚這些數(shù)據(jù)的質(zhì)量到底如何,另外還要確保合規(guī)。
36氪:定義視頻數(shù)據(jù)質(zhì)量的標準是什么?
張鵬:其實可以借用文本數(shù)據(jù)的標準。什么樣的文本數(shù)據(jù)質(zhì)量可以稱為“高”?首先內(nèi)容之間的邏輯結(jié)構(gòu)要是完整的,其次用詞、標點、符號等也要符合行文規(guī)范。按照更高的要求,文字還要包括各種知識。
視頻也是一樣的。首先要考慮視覺內(nèi)容的豐富性,文字要求的邏輯、內(nèi)容的連貫性,視頻數(shù)據(jù)同樣也要求。比如我們希望生產(chǎn)的視頻是一鏡到底還是包含若干個分鏡,這些放到訓練數(shù)據(jù)上都有講究。
36氪:你對現(xiàn)在積累的視頻訓練數(shù)據(jù)滿意嗎?
張鵬:視頻數(shù)據(jù)其實沒有像文字數(shù)據(jù)那么好,包括我們?nèi)カ@取的成本會更高一些。我覺得視頻數(shù)據(jù)的積累應該沒有一個明確的上限,或者說是滿分的狀態(tài),大家沒有辦法制定滿分的評判標準。比如文本數(shù)據(jù),大家只知道現(xiàn)階段需要怎樣的高質(zhì)量數(shù)據(jù),然后拼命地想辦法去尋找或者挖掘、清洗,甚至去生成。
視頻數(shù)據(jù)也一樣,我們不斷有新的認知、新的發(fā)現(xiàn),然后再增加新的數(shù)據(jù),滾動往前發(fā)展。
36氪:現(xiàn)階段,能讓不同視頻生成模型的性能拉開差距的,會是數(shù)據(jù)嗎?
張鵬:我覺得可以類比語言模型發(fā)展的歷程,早期大家的數(shù)據(jù)基本來自公開數(shù)據(jù)庫,差別不大,可能里面有一小部分的差異在于怎么挑出符合我們自己需求的,大家過濾數(shù)據(jù)的Pipeline可能有些差異。
早期更大的差異來源于算法框架和訓練的經(jīng)驗,怎樣訓練精度更高、時間更短、質(zhì)量更高、數(shù)據(jù)的利用率更高。當發(fā)展到一定階段,算法相對穩(wěn)定,或者說收斂得差不多了,數(shù)據(jù)反過頭來又變成影響比較大的方面。
你會看到,很多新出來的模型反而能夠很快速地去爬性能的曲線,原因就在于它省掉了前期摸索的過程——算法上的摸索過程沒有了,采取的基本上就是相對比較穩(wěn)定的算法架構(gòu)。
數(shù)據(jù)前人也踩過一些坑了,也有一些怎么優(yōu)化數(shù)據(jù)集的經(jīng)驗告訴你了,所以它相對來說可以用更少的算力、更少的數(shù)據(jù)和更穩(wěn)定的訓練,得到一個相對更好的結(jié)果。
36氪:你的意思是模型的后發(fā)者反而有優(yōu)勢?
張鵬:后發(fā)有后發(fā)的優(yōu)勢,只能這么說。
36氪:那后發(fā)者的劣勢是什么?
張鵬:比如你站在別人肩膀上去做這些事情,其實對底層的很多東西沒有很深入的了解。當你碰到一些問題,需要技術(shù)內(nèi)核相關(guān)的更新迭代才能夠解決的時候,你可能就無能為力,只能跟在別人背后。等別人把那個問題解決了,你才能把技術(shù)拿過來用。
從天花板和長久發(fā)展的角度來看,應該還是做得越早、認知越深,自己掌握的東西越多,這樣會更有優(yōu)勢。
36氪:所以后發(fā)優(yōu)勢是階段性的優(yōu)勢?
張鵬:后發(fā)的優(yōu)勢不能說是階段性的優(yōu)勢,而是在技術(shù)探索的前期成本和發(fā)展速度上的優(yōu)勢。但優(yōu)勢也就在這兒,因為剩下面臨的無非就是兩件事:一件是技術(shù)本身的更新迭代,一件是技術(shù)到產(chǎn)品的PMF(產(chǎn)品-市場匹配度)??茨阋劢乖谀募虑樯先プ?。
36氪:從文本到圖像,再到視頻,多模態(tài)的技術(shù)路線行業(yè)有共識嗎?
張鵬:我們剛才其實聊到一個先發(fā)、后發(fā)的優(yōu)勢、劣勢的問題,先發(fā)的優(yōu)勢你也可以理解為對這件事情套路的掌握程度。所以當碰到這個領(lǐng)域中的新問題,你是有一定的思考套路,潛移默化形成一種路徑。
比如視頻生成,我們可能會認為,自然語言作為抽象層面的智慧,如果能把對自然語言的理解、生成能力解決了,再把這里面的視覺、圖像等信息對齊,這樣就能幫助我們生成高質(zhì)量的、可控的內(nèi)容。再加上其他的一些方法,比如說怎么樣更高效地生成分辨率更高的、連續(xù)的東西。
這樣的話,出來的模型就相對會離我們的目標更近一些,而不是說先把生成這件事情解決了,反過來再去解決理解和對齊,路徑可能就不一定能夠搞得定。比如說像純粹的擴散模型,它能生成很高清的圖像,但是你純粹在這個模型上去讓它可控,就會很麻煩,要加很多其他的方法。
所以這就是思考路徑的問題。我們是由下至上,再從抽象層面往下去解。純粹地從下面單一的模態(tài)開始往上做,那是另外一個思路。
36氪:“從抽象層面往下去解”的路徑,有什么好處嗎?
張鵬:從直覺來講,如果你了解這個問題,再往下去解,看它統(tǒng)一的建模如何映射到各個模態(tài),那就相對簡單了。如果我從下往上,從單一模態(tài),比如視覺建模,一直往上做,那么當我想要往別的模態(tài)上跨的時候,可能不一定跨得過去,因為這個建模不一定最終能達到統(tǒng)一建模上。
當然這也是學術(shù)界現(xiàn)在在研究的一些問題,還沒有定論。前段時間有篇論文提到了“柏拉圖表示”的概念,主要內(nèi)容提到跨模態(tài)的建模,最終會統(tǒng)一到一個一致性的建模上,這可能能證明我們的思路是OK的。
03/
現(xiàn)在模型天花板不算太高
成本卻很高
36氪:外界會把智譜AI稱作“為數(shù)不多能夠跟OpenAI媲美的企業(yè)之一”。你喜歡這個標簽嗎?
張鵬:談不上喜歡或者不喜歡,我覺得這是很中肯的評價。因為我們對AGI有相同的認知、相同的目標,以及目標的內(nèi)涵和外延基本上一樣。
在探索的路徑上,他們確實走得比較靠前,很多時候我們要借鑒他們的經(jīng)驗。但是到一定程度以后,也得靠自己摸索,他們也不再公開了。
36氪:你覺得OpenAI哪個層面借鑒后是非常有用的?
張鵬:我覺得從之前Ilya(前OpenAI首席科學家)整個研究路線和研發(fā)節(jié)奏來看,能看出他對統(tǒng)一建模這件事是有信仰的,所以在這件事上,我們和OpenAI是有共識的。
具體到借鑒的部分,我覺得有兩個層面。一個層面是宏觀上怎么接近AGI,其次,OpenAI每一次領(lǐng)先我們的新發(fā)布,都可以給我們很多的啟發(fā),至少能告訴我們哪些方向是有可能的,你沿這個方向走它可能是沒錯的。但其他的方向到底錯沒錯?不知道。
天下通向真理的道路不一定只有一條。所以這個時候就看我們研發(fā)的進展、擅長的事情,還有資源稟賦,去選擇我們是要沿著類似的道路去走,還是說走我們自己的一條路。
36氪:但現(xiàn)在Ilya離開OpenAI了,智譜AI還會像之前一樣“產(chǎn)品全線對標OpenAI”嗎?
張鵬:這取決于共識還在不在。
36氪:你覺得智譜AI現(xiàn)在走的路,跟OpenAI不同的地方在哪?
張鵬:我覺得不同的地方其實還挺多的。最簡單的一點,他們從來不愁錢、不愁資源,他們可以非常投入、非常全身心地去做新技術(shù)的探索和研發(fā)。
對于我們來講,很多時候可能就不得不受這些東西的約束。挑戰(zhàn)更多來自于怎么來把每一份資源、每一份人力、每一份時間都花在刀刃上,效率要提到足夠高。
因為我們是一個追趕的角色,你的效率如果趕不上前者的話,其實這件事挺痛苦的,你永遠落在后面,還可能會落得越來越遠。剛才說后發(fā)也有后發(fā)的優(yōu)勢,但是后發(fā)也有后發(fā)麻煩的地方。
36氪:之前Sora的負責人說要給人才足夠的GPU,這在資源緊缺的情況下就很難做到了。
張鵬:這就要盡量滿足。對于一家AI創(chuàng)業(yè)公司來講,可能主要的成本和壓力都來自資源的壓力。但我們還算挺舍得,給人才的資源投入占比很大。
36氪:智譜AI“產(chǎn)品全線對標OpenAI”,這個對標相較于OpenAI發(fā)布產(chǎn)品的時間,是前置還是后置?
張鵬:大部分情況下,我們大概能想象到他們會往哪個方向走,但是具體產(chǎn)品的形態(tài)就沒法預測得很明白。比如年初Sora和GPT-4o的發(fā)布,從大方向上我們知道要發(fā)多模態(tài)了,但是具體產(chǎn)品形態(tài)很難去精準預測。
36氪:去年和你聊的時候,你提到智譜AI不會做小模型,只做通用底座。最近OpenAI又發(fā)了GPT-4o mini,這是一個小模型,你對小模型的看法會改變嗎?
張鵬:我覺得這沒有什么矛盾的地方。第一,外部大家對GPT-4o mini的認知還是比較統(tǒng)一的,它是用來代替GPT-3.5的。第二,他們要降低使用成本、降低市場的門檻,讓更多人來用。GPT-4o mini從能力上講并不是最高的版本,不是頂天花板的事。
我對小模型的思考在于,它可能是在應對一些特定問題、特定場景時更有性價比的模型。但它對于我們將解決人類現(xiàn)實世界問題的幫助,比如把解決問題的比例從15%,提升到16%,提升到25%,其實沒有太大的幫助。
現(xiàn)在的問題不是模型天花板足夠高,而是成本高到大家受不了,天花板也不算太高。兩個問題同時存在。
04/
預測,是每個員工的必備技能
36氪:以現(xiàn)在的技術(shù)儲備,應對B端客戶的產(chǎn)業(yè)落地需求足夠嗎?
張鵬:其實不分To B、To C,兩者沒有太大的差距。
To C的好處在于你不用去面對每個人,只要想好了大概率或者共性的需求是什么,把這個解決了,剩下的那部分無非是通過營銷手段、市場手段。
但是To B沒辦法,你必須得面對面地去溝通。一旦面對面溝通,對方的需求又特別容易差異化。
36氪:怎么面對B端的差異化需求?
張鵬:前兩天我和產(chǎn)品團隊就說,一流的公司是去找到用戶的所謂的共性需求,挖掘紛紛擾擾表述后面的痛點部分,用你的技術(shù)去解決,再找到最好的性價比。
這說的是一流的公司,但真正牛的公司是引領(lǐng)和創(chuàng)造需求,像蘋果在智能手機時代把所有按鍵取消掉一樣。你想C端的公眾也好,B端的企業(yè)也好,他們會比你更了解技術(shù)的本質(zhì)嗎?不會。所以了解技術(shù)本質(zhì)之后,技術(shù)先給你提出了創(chuàng)造全新價值的可能。
36氪:這就不是一個技術(shù)問題了,是Go to market的問題。
張鵬:是的,甚至Go to market的方式和邏輯都有一些變化。我覺得這是有一些套路的,比如蘋果怎么去發(fā)掘需求,怎么去預判未來的趨勢。
36氪:現(xiàn)在會加一些蘋果的工作流到產(chǎn)品團隊體系里面?
張鵬:至少大家有這樣的一個想法和這樣的一種覺悟和認知,就是說你要保留一部分你的想法和精力去預測,預測是很重要的。
36氪:員工都要來預測?
張鵬:我們所有人都必須要有這個覺悟。
36氪:不管對你,還是中層和一線員工來說,預測的難度有多大?
張鵬:是挺有挑戰(zhàn)的一件事,不會容易的,容易的事情早被人做了。
36氪:你覺得今天模型公司的產(chǎn)品和技術(shù)會有些同質(zhì)化嗎?
張鵬:關(guān)鍵不是在于是不是同質(zhì)化,也不在于橫向比較,而是往前看未來會發(fā)生什么,或者說現(xiàn)在的第一性原理、最本質(zhì)的需求是什么。
舉個例子,比如有一個客戶和我們說,他們一套給員工用的軟件系統(tǒng)迭代了很多年,有7000多個業(yè)務和功能菜單的入口,員工上崗前如果不經(jīng)過一段時間的培訓,是搞不定的;就算培訓了,工作的時候也會很痛苦。客戶說想要一個技術(shù)方案,比如用自然語言表達需求,讓AI幫忙找到入口。
我就問他,你不覺得7000多個入口本身就不合理嗎?還不如想一想我們怎么設(shè)計一個方案,把7000多個入口解決掉。還不如換一個角度看這個客戶的問題,其實這個問題是個偽命題,那你解決那個問題就好了。
36氪:一線銷售可能會覺得客戶要什么,我就給他什么。
張鵬:對,這就是會有困難的地方,他需要一種價值觀上的認同。
36氪:清華系在大模型圈子里還是很顯眼的,你覺得清華為什么能在AI風口很快成為重要的一股推動力?
張鵬:前兩天我們幾個校友和老師一起吃飯,也聊到這個話題:清華在過去的時間里到底做對了哪一件事情,讓清華的計算機和人工智能踩上了臺階?
最后其實沒有定論。但我個人認為,過去幾十年里,清華培養(yǎng)了一大批非常踏實、勤奮肯干的聰明人,只要給他們一個合適的時機和舞臺,我覺得他們就會取得非常好的成績。
你看這一次的爆發(fā),除了學術(shù)和研究上的層面,其實還有很多地方實際上來自工程,來自團隊的協(xié)作。在這個層面上,不是說只要一批學術(shù)做得很好或?qū)懻撐牡娜嗽谝黄鹁湍芨愣ǖ模€要有很多價值觀一樣的工程人員,團結(jié)起來做這件事情。
36氪:說到資源協(xié)調(diào),智譜AI也投了很多清華的AI公司。是從什么時候開始有投資的想法的?
張鵬:大概在2022年底就開始考慮了,投一些合作伙伴或者生態(tài)企業(yè)。因為我們認為AGI的路沒那么容易走,在中國也很難單獨把這件事搞定。我們本身也是一個創(chuàng)業(yè)企業(yè),所以一定要靠生態(tài),把生態(tài)拉上一起前進。投資是其中的一種方法。
36氪:現(xiàn)在智譜AI投的企業(yè),有芯片層的,Infra的,也有模型和應用層的。其中一些企業(yè)還沒有PMF,甚至沒有完整的產(chǎn)品。你怎么判斷他們所做的事的價值?
張鵬:首先,我覺得生態(tài)非常重要——我們到底怎么來看待生態(tài),以及怎么培養(yǎng)生態(tài)?我個人的觀點,你看硅谷為什么有國際上最領(lǐng)先的科技創(chuàng)新的環(huán)境,就在于有大量的科技創(chuàng)新者前赴后繼。第二,那里有大量的人愿意支持他們做這件事,用創(chuàng)業(yè)投資的方式,很多時候他們甚至不求收益。
所以這兩種人、兩種力量是相輔相成的,這樣才能把生態(tài)養(yǎng)得非常肥沃,土壤里面可以長出OpenAI、OpenBI、OpenCI。這是美國創(chuàng)新生態(tài)特別好的一個點,有體系,比如我投了企業(yè),就要考慮和它的下游企業(yè)互相之間是什么樣一個關(guān)系,上下游怎么去銜接。
當然從企業(yè)來講,肯定是希望他們能夠很快地成長,跟我們一塊成長,能給我們正向的收益。但是誰能保證他們就一定會成功?沒有人能拍胸脯保證這件事情。
來源 | 36氪
作者 | 周鑫雨
編輯|蘇建勛