中國新聞網(wǎng)-上海新聞
上海分社正文
無問芯穹發(fā)布千卡規(guī)模異構(gòu)芯片混訓平臺
2024年07月04日 20:48   來源:中新網(wǎng)上海  

  中新網(wǎng)上海新聞7月4日電(鄭瑩瑩)7月4日,在2024世界人工智能大會的AI基礎設施論壇上,無問芯穹聯(lián)合創(chuàng)始人兼CEO夏立雪發(fā)布了千卡規(guī)模異構(gòu)芯片混訓平臺。

  就在4個月前,無問芯穹Infini-AI大模型開發(fā)與服務云平臺宣布首次公測,已有智譜AI、月之暗面、生數(shù)科技等大模型公司在Infini-AI上使用異構(gòu)算力。

  作為大模型生命周期中不可或缺的兩個階段,訓練和推理均需要強大的計算資源支撐。然而,與國際上模型層與芯片層“相對集中”的格局相比,中國的模型層與芯片層更加“百花齊放”。然而,大量的異構(gòu)芯片也形成了“生態(tài)豎井”,不同硬件生態(tài)系統(tǒng)封閉且互不兼容,給算力的使用方帶來一系列技術(shù)挑戰(zhàn)。

  為構(gòu)建適應多模型與多芯片格局的AI Native基礎設施,無問芯穹的底層解法是:提供高效整合異構(gòu)算力資源的好用算力平臺,以及支持軟硬件聯(lián)合優(yōu)化與加速的中間件,讓異構(gòu)芯片真正轉(zhuǎn)化為大算力。

  近日,無問芯穹與清華、上交的聯(lián)合研究團隊發(fā)布了HETHUB,這是一個用于大規(guī)模模型的異構(gòu)分布式混合訓練系統(tǒng)。夏立雪介紹,這項技術(shù)工程化的初衷,是希望能夠通過整合更多異構(gòu)算力,繼續(xù)推高大模型技術(shù)能力的上限,同時通過打通異構(gòu)芯片生態(tài),持續(xù)降低大模型應用落地成本。

  大模型行業(yè)發(fā)展正在進入規(guī);a(chǎn)業(yè)落地階段,應用場景的百花齊放,帶來了對大模型訓練日益迫切的需求。構(gòu)建大模型時代的AI Native基礎設施,不僅能夠為AI開發(fā)者提供更加通用、高效、便捷的研發(fā)環(huán)境,同時也是實現(xiàn)算力資源有效整合,支撐AI產(chǎn)業(yè)可持續(xù)發(fā)展的關(guān)鍵基石。

  無問芯穹致力于構(gòu)建適應多模型與多芯片的AI Native基礎設施!凹夹g(shù)上限推高與技術(shù)落地擴散不矛盾,且取決于我們決心如何對待這個技術(shù)!毕牧⒀┱f。

  他表示,優(yōu)良的基礎設施就是這樣一種“魔法”,當邊際成本下降到臨界值,就能有更多的人擁抱新技術(shù)。(完)

注:請在轉(zhuǎn)載文章內(nèi)容時務必注明出處!   

編輯:鄭瑩瑩  

本網(wǎng)站所刊載信息,不代表中新社和中新網(wǎng)觀點。 刊用本網(wǎng)站稿件,務經(jīng)書面授權(quán)。
未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復制及建立鏡像,違者將依法追究法律責任。
常年法律顧問:上海金茂律師事務所