每日經(jīng)濟新聞
今日報紙

每經(jīng)網(wǎng)首頁 > 今日報紙 > 正文

英偉達深夜發(fā)“重磅” 預計明年推出Blackwell Ultra AI芯片

每日經(jīng)濟新聞 2024-06-04 00:16:15

每經(jīng)記者 楊卉    每經(jīng)編輯 陳俊杰    

6月2日晚間,英偉達創(chuàng)始人兼首席執(zhí)行官黃仁勛登臺演講,透露了不少關(guān)鍵信息。據(jù)他介紹,使用NVIDIA NIM將AI模型部署在云、數(shù)據(jù)中心或工作站上的開發(fā)者,可將模型部署時間從以前的數(shù)周縮短至幾分鐘。和碩、勞氏公司、西門子等客戶均在使用。

視覺中國

此外,被英偉達寄予厚望的新一代AI芯片與超級計算平臺Blackwell芯片已開始投產(chǎn),預計將在2025年推出Blackwell Ultra AI芯片。

據(jù)悉,英偉達的第一款Blackwell芯片名為GB200,宣稱是目前“全球最強大的芯片”。目前,供應鏈對GB200寄予厚望,預估2025年出貨量有機會突破百萬顆,將占英偉達高端GPU出貨量的近40%~50%。

NIM大幅加快模型部署

6月2日晚間,一身皮衣的黃仁勛又在舞臺上擺弄起了自家產(chǎn)品,重磅介紹了NVIDIA NIM,一種推理微服務,可通過經(jīng)優(yōu)化的容器形式提供模型,旨在助力各種規(guī)模企業(yè)部署AI服務。

不過,嚴格來說,NVIDIA NIM并非新品,最早露面是在今年3月。英偉達在6月2日晚間宣布,全球2800萬開發(fā)者皆可下載NVIDIA NIM,將AI模型部署在云、數(shù)據(jù)中心或工作站上,構(gòu)建Copilot(微軟的AI助理)、ChatGPT聊天機器人等生成式AI應用。下月起,NVIDIA開發(fā)者計劃的會員可免費使用NIM,在其選擇的基礎設施上進行研究、開發(fā)和測試。

根據(jù)英偉達的說法,新的生成式AI應用正變得越來越復雜,通常需要使用具有不同功能的多個模型來生成文本,如圖像、視頻、語音等。而NVIDIA NIM提供了一種簡單、標準化的方式,將生成式AI添加到應用中,可使模型部署時間從以前的數(shù)周縮短至幾分鐘。

黃仁勛還透露,包括Cadence、 Cloudera、 Cohesity、DataStax、NetApp、Scale AI和新思科技等在內(nèi)的近200家技術(shù)合作伙伴正在將NIM集成到他們的平臺中,以加快生成式AI的部署。“每個企業(yè)都希望在其運營中融入生成式AI,但并非每個企業(yè)都擁有專門的AI研究團隊。NVIDIA NIM可被集成到任意平臺中,任何地方的開發(fā)者都可以訪問,并且可以在任意環(huán)境中運行。”黃仁勛稱。

《每日經(jīng)濟新聞》記者了解到,NIM是預先構(gòu)建的,目前有近40個模型可作為NIM的端點供開發(fā)者體驗;開發(fā)人員可從開源社區(qū)平臺Hugging Face訪問適用于Meta Llama 3模型的NVIDIA NIM微服務,使用Hugging Face推理端點訪問和運行Llama 3 NIM。

值得注意的是,英偉達還透露了一批大客戶的使用情況,如電子制造商Foxconn正在使用NIM開發(fā)針對特定領域的大語言模型(LLM),用于智能制造、智慧城市和智能電動汽車;和碩正在將NIM用于一個當?shù)氐幕旌蠈<遥∕oE)模型;勞氏公司正在用NVIDIA NIM推理微服務來提升員工和客戶的體驗;西門子正在將其運營技術(shù)與NIM微服務整合,用于車間AI工作負載;還有數(shù)十家醫(yī)療保健公司正在部署NIM,為包括手術(shù)規(guī)劃、數(shù)字助理、藥物發(fā)現(xiàn)和臨床試驗優(yōu)化等在內(nèi)的應用領域的生成式AI推理提供支持。

Blackwell開始投產(chǎn)

除了上述產(chǎn)品,黃仁勛還在演講中透露,英偉達Blackwell芯片已開始投產(chǎn),并將在2025年推出Blackwell Ultra AI芯片。

今年5月,黃仁勛在財報電話會上稱,預計今年Blackwell架構(gòu)芯片將為公司帶來大量收入。英偉達對Blackwell芯片寄予厚望,還是與市場強勁需求有關(guān)。從最新披露的財報數(shù)據(jù)來看,2025財年第一財季,英偉達實現(xiàn)營收260億美元,較上年同期增長262%。其中,數(shù)據(jù)中心業(yè)務營收226億美元,與上年同期相比增長427%,是業(yè)績收入的“大頭”。

據(jù)英偉達首席財務官科萊特·克雷斯(Colette Kress)解讀,數(shù)據(jù)中心業(yè)務的增長源自Hopper架構(gòu)GPU(例如H100)出貨量的增加;該季度的重要亮點之一就是Meta宣布推出Llama 3 開源大模型,使用了近2.4萬塊H100GPU。

除了披露芯片量產(chǎn)進度,英偉達此次還推出了一系列采用NVIDIA Blackwell架構(gòu)的系統(tǒng)。

據(jù)悉,這些系統(tǒng)搭載了Grace CPU以及NVIDIA網(wǎng)絡和基礎設施,用于助力企業(yè)建立AI工廠和數(shù)據(jù)中心。其中,NVIDIA MGX模塊化參考設計平臺加入了對NVIDIA Blackwell產(chǎn)品的支持,包括專為主流大語言模型推理、檢索增強生成和數(shù)據(jù)處理提供卓 越 性 能 打 造 的 NVIDIA GB200 NVL2平臺。

英偉達強調(diào),GB200 NVL2適合用于數(shù)據(jù)分析等新興領域,借助NVLink—C2C互連技術(shù)帶來的帶寬內(nèi)存性能及Blackwell架構(gòu)中專有的解壓縮引擎,較使用X86CPU時的數(shù)據(jù)處理速度可最多提速到18倍,能效提高8倍。“新一輪工業(yè)革命已經(jīng)開始,眾多企業(yè)和地區(qū)正在與NVIDIA合作推動價值萬億美元的傳統(tǒng)數(shù)據(jù)中心向加速計算轉(zhuǎn)型,并建造一種新型數(shù)據(jù)中心AI工廠來生產(chǎn)新的商品,人工智能。”黃仁勛稱。

英偉達方面表示,目前已有超過25家合作伙伴的90多套已發(fā)布或正在開發(fā)中的系統(tǒng)使用了MGX參考架構(gòu),開發(fā)成本較之前最多降低了四分之三,開發(fā)時間縮短到六個月,較之前減少了三分之二。另外,英偉達還透露,比亞迪電子、西門子、泰瑞達和Alphabet旗下公司Intrinsic等全球10多家機器人企業(yè)正在將NVIDIA Isaac加速庫、基于物理學的仿真和AI模型集成到其軟件框架和機器人模型中,以此提高工廠、倉庫和配送中心的工作效率。

封面圖片來源:視覺中國

如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

Ai 英偉達 AI芯片

歡迎關(guān)注每日經(jīng)濟新聞APP

每經(jīng)經(jīng)濟新聞官方APP

0

0

免费va国产高清不卡大片,笑看风云电视剧,亚洲黄色性爱在线观看,成人 在线 免费