日前,啟明創(chuàng)投投資企業(yè)無問芯穹在上海舉辦了一場以“多元計算·泛在鏈接”為主題的AI算力優(yōu)化論壇暨產(chǎn)品發(fā)布會,無問芯穹發(fā)起人汪玉攜聯(lián)創(chuàng)團隊首次集體公開亮相,并發(fā)布“無穹Infini-AI”大模型開發(fā)與服務(wù)平臺。
多家國產(chǎn)大模型、算力芯片與硬件公司,智算機構(gòu),以啟明創(chuàng)投為代表的創(chuàng)投機構(gòu)參加此次發(fā)布會。無問芯穹亦與包括啟明創(chuàng)投投資企業(yè)智譜AI在內(nèi)的多家企業(yè)簽署戰(zhàn)略合作協(xié)議。
01/
發(fā)布“無穹Infini-AI”平臺
會上,無問芯穹發(fā)布了基于多芯片算力底座的“無穹Infini-AI”大模型開發(fā)與服務(wù)平臺(infini-ai.com),并宣布自4月起正式開放全量注冊,給所有實名注冊的個人和企業(yè)用戶提供百億tokens配額。
開發(fā)者可以在這個平臺上體驗、對比各種模型能力和芯片效果,通過簡單拖拽各種參數(shù)按鈕的動作,就能精調(diào)出更貼合業(yè)務(wù)的大模型,并部署在“無穹Infini-AI”上。
目前,“無穹Infini-AI”已支持了Baichuan2、ChatGLM2、ChatGLM3、ChatGLM3閉源模型、Llama2、Qwen、Qwen1.5系列等共20多個模型,以及啟明創(chuàng)投投資企業(yè)壁仞科技,AMD、寒武紀、燧原科技、天數(shù)智芯、沐曦、摩爾線程、NVIDIA等企業(yè)的10余種計算卡,支持多模型與多芯片之間的軟硬件聯(lián)合優(yōu)化和統(tǒng)一部署。第三方平臺或自定義訓(xùn)練、微調(diào)而來的模型也可以無縫遷移托管到“無穹Infini-AI”,并獲得細粒度定制化的按token計費方案。
“我們對模型品牌和芯片品牌的覆蓋率還會持續(xù)提升,隨著時間的推移,‘無穹Infini-AI’的性價比優(yōu)勢會越來越突出。”無問芯穹聯(lián)合創(chuàng)始人兼首席執(zhí)行官夏立雪表示,未來“無穹Infini-AI”還將支持更多模型與算力生態(tài)伙伴的產(chǎn)品上架,讓更多大模型開發(fā)者能夠“花小錢、用大池”,持續(xù)降低AI應(yīng)用的落地成本。
除了開放全量注冊,無問芯穹也宣布正式啟動大算力需求方的測試邀請,提供更具性價比的算力,且在算法和硬件上更有縱深的算力優(yōu)化服務(wù)。
02/
算力性價比大幅提升
源自多芯片優(yōu)化實力
“市面上有很多未被激活的有效算力,硬件本身差距在快速縮小,但大家在使用時總會遇到‘生態(tài)問題’?!毕牧⒀┱f,這是因為硬件的迭代速度總是比軟件更慢、價格更高,軟件開發(fā)者不希望工作中出現(xiàn)除自身研發(fā)工作之外的其他“變量”,因而總是會傾向于直接使用有成熟生態(tài)的芯片。
無問芯穹希望幫助所有做大模型的團隊“控制變量”,即在使用無問芯穹的算力服務(wù)時,用戶不需要也不會感覺到底層算力的品牌差異。
成立不足一年的無問芯穹,何以能夠在這么短時間內(nèi)跑通多種計算卡上的性能優(yōu)化?
2022年底,大模型引發(fā)社會廣泛關(guān)注后,夏立雪和他的導(dǎo)師汪玉認為,國內(nèi)整體算力水平距離國際先進還有明顯差距,光靠芯片工藝提升或是多元芯片的迭代已遠遠不夠,需要建立一個大模型生態(tài)系統(tǒng),讓不同模型能自動部署到不同硬件上,讓各種算力得到有效利用。
一年后,無問芯穹宣布了在英偉達GPU和AMD等芯片上取得的優(yōu)化效果,取得了當時最好的計算加速效果,實現(xiàn)了大模型任務(wù)2-4倍的推理速度提升。隨后,AMD中國宣布與無問芯穹達成戰(zhàn)略合作關(guān)系,雙方將攜手聯(lián)合提高商用AI應(yīng)用性能。
兩年之后,無問芯穹在本次發(fā)布會上展示了其在10種芯片上的性能優(yōu)化數(shù)據(jù),在每張卡上都顯示已取得了目前行業(yè)內(nèi)最優(yōu)的性能優(yōu)化效果。
“我們與各個模型、芯片伙伴都建立了強信任關(guān)系,”夏立雪說:“一方面來自于我們面向大模型的計算優(yōu)化實力,另一方面無問芯穹非常注重保護伙伴的數(shù)據(jù)安全。無問芯穹會持續(xù)保持中立性,并且也不會與客戶產(chǎn)生利益沖突,這是我們業(yè)務(wù)開展的基礎(chǔ)。”
03/
將軟硬件一體聯(lián)合優(yōu)化
從云到端進行到底
“Transformer統(tǒng)一了這一輪的模型結(jié)構(gòu),并且表現(xiàn)出持續(xù)取得應(yīng)用突破的趨勢,”汪玉在開場發(fā)言中說:“從前在AI 1.0時代,我們做上一家公司,只能做很小一部分AI任務(wù)。今時不同往日,大模型結(jié)構(gòu)統(tǒng)一了,依靠生態(tài)建立起來的硬件壁壘正在‘變薄’?!?/span>
得益于世界范圍內(nèi)正涌起的AI浪潮,以及中國市場的獨特機會,無問芯穹面對的是一次巨大的技術(shù)機遇。Transformer在設(shè)計時天然基于并行計算架構(gòu),規(guī)模越大的大模型帶來的智能效果越好,使用的人越多,其所需的計算量也越大。
“無問芯穹正在做的是‘大模型原生’的加速技術(shù)棧?!睙o問芯穹聯(lián)合創(chuàng)始人兼首席技術(shù)官顏深根表示,大模型落地依賴算法、算力、數(shù)據(jù),還有系統(tǒng)。算力決定了大模型的速度,設(shè)計優(yōu)良的系統(tǒng)則能釋放出更多硬件潛力。無問芯穹的團隊曾搭建過數(shù)萬片GPU級的大規(guī)模高性能AI計算平臺,具備萬卡納管能力,并基于自運營集群成功搭建了云管系統(tǒng),已實現(xiàn)跨域多云間的統(tǒng)一調(diào)度。
“在端側(cè),人們則更加傾向于快速將大模型的能力落到人機交互的界面上,提升實用體驗。”無問芯穹聯(lián)合創(chuàng)始人兼首席科學(xué)家戴國浩認為,未來,凡是有算力的地方,都會有AGI級別的智能涌現(xiàn)。而每一個端上的智能來源,就是大模型專用處理器LPU。
大模型處理器LPU可以提升大模型在各種端側(cè)硬件上的能效與速度。
戴國浩在發(fā)布會上向觀眾展示了“一張卡跑大模型”,作為LPU的基礎(chǔ),其團隊于今年1月初推出的全球首個部署于FPGA的大模型推理IP,通過大模型高效壓縮的軟硬件協(xié)同優(yōu)化技術(shù),使得LLaMA2-7B模型的FPGA部署成本從4塊卡減少至1塊卡,并且性價比與能效比均高于同等工藝GPU。未來,無問芯穹的端側(cè)大模型專用處理器LPU,可以被模塊化地集成到各類端側(cè)芯片中。
戴國浩宣布:“無穹LPU將于2025年面世?!?/span>
04/
簽署多項戰(zhàn)略合作協(xié)議
鏈接模型與芯片的“雙向奔赴”
無問芯穹宣布與啟明創(chuàng)投投資企業(yè)智譜AI聯(lián)合發(fā)布大模型萬卡訓(xùn)推計劃,雙方將攜手共建大模型訓(xùn)推萬卡集群,在大模型訓(xùn)練推理優(yōu)化、算力集群性能提升等方面展開深度合作。
無問芯穹聯(lián)合創(chuàng)始人兼首席執(zhí)行官夏立雪與智譜AI總裁王紹蘭現(xiàn)場簽約
該萬卡集群將面向大模型行業(yè)應(yīng)用,提供端到端模型與算力服務(wù),圍繞技術(shù)創(chuàng)新和產(chǎn)業(yè)發(fā)展需求,以算力集群賦能行業(yè)創(chuàng)新。
無問芯穹亦宣布與紫光展銳簽署戰(zhàn)略合作,雙方將共同探索大模型在端側(cè)硬件上的部署與性能提升。
無問芯穹聯(lián)合創(chuàng)始人兼首席執(zhí)行官夏立雪與紫光展銳執(zhí)行副總裁黃宇寧現(xiàn)場簽約
會上,無問芯穹還與燧原科技共同宣布達成i20千卡集群戰(zhàn)略合作,“無穹Infini-AI”平臺已與燧原科技i20千卡集群完成系統(tǒng)級融合。通過“無穹Infini-AI”平臺,可以靈活調(diào)用燧原科技的算力集群,完成大模型推理任務(wù)。
無問芯穹聯(lián)合創(chuàng)始人兼首席執(zhí)行官夏立雪與燧原科技創(chuàng)始人、董事長、首席執(zhí)行官趙立東現(xiàn)場簽約
隨后,無問芯穹宣布與摩爾線程達成MTT S4000千卡集群戰(zhàn)略合作,目前“無穹Infini-AI”平臺和摩爾線程大模型智算加速卡MTT S4000千卡集群已順利完成系統(tǒng)級融合。通過“無穹Infini-AI”平臺,可以靈活調(diào)用摩爾線程智算集群,完成大模型高效訓(xùn)練與微調(diào)任務(wù)。
無問芯穹聯(lián)合創(chuàng)始人兼首席執(zhí)行官夏立雪與摩爾線程聯(lián)合創(chuàng)始人兼執(zhí)行總裁王東現(xiàn)場簽約
05/
重磅陣容嘉賓參加圓桌論壇
《創(chuàng)新加速:搭建高效產(chǎn)學(xué)研橋梁》論壇
在《創(chuàng)新加速:搭建高效產(chǎn)學(xué)研橋梁》論壇上,戴國浩擔任主持人,與中國科學(xué)院大學(xué)教授韓銀和、上海人工智能實驗室領(lǐng)軍科學(xué)家林達華、北京大學(xué)博雅特聘教授梁云,以及上海交通大學(xué)計算機科學(xué)與工程系教授冷靜文,一起暢想未來云端的大模型算力集群的形態(tài),并討論了在軟硬件協(xié)同優(yōu)化方向上提升大模型計算能力等創(chuàng)新前沿問題。
《智能引領(lǐng):產(chǎn)業(yè)需求牽引計算新紀元》論壇
在《智能引領(lǐng):產(chǎn)業(yè)需求牽引計算新紀元》論壇上,夏立雪擔任主持人,邀請到華勤技術(shù)數(shù)據(jù)業(yè)務(wù)事業(yè)群總裁鄧治國,上海儀電集團戰(zhàn)略企劃部總經(jīng)理兼上海智能算力科技有限公司董事長劉山泉,燧原科技創(chuàng)始人、董事長、首席執(zhí)行官趙立東,鴻博股份副總裁、英博數(shù)科科技有限公司首席執(zhí)行官周韡韡,以及顏深根。六位嘉賓共同探討了目前算力產(chǎn)業(yè)所面臨的最大挑戰(zhàn)與機遇,以及如何更好地開放和共享算力資源等問題。
在《布局前瞻:大模型時代的前沿投資機遇》論壇上,啟明創(chuàng)投合伙人周志峰與其他嘉賓圍繞中國大模型技術(shù)與商業(yè)模式的破局之道展開討論,探討了AGI來臨形態(tài)與邊、端落地機會等話題。
周志峰指出:“我們交流了很多大模型公司,發(fā)現(xiàn)模型跟芯片之間的中間層是非常粗糙原始的,即使是OpenAl也在早期階段。沒有這一層,大模型永遠不會賦能千行百業(yè)?!?/span>