每日經(jīng)濟新聞 2024-08-27 21:20:28
◎科技巨頭們著眼“更節(jié)能的”技術(shù)方案。
每經(jīng)記者 文巧 每經(jīng)實習記者 岳楚鵬 每經(jīng)編輯 高涵
當?shù)貢r間8月26日,OpenAI硬件設施負責人Trevor Cai在Hot Chips 2024上發(fā)表了長達一小時的演講,主題為“構(gòu)建可擴展的AI基礎(chǔ)設施”。他指出,OpenAI的一項重要觀察結(jié)果是,擴大規(guī)??梢援a(chǎn)生更好、更有用的人工智能(AI)。
作為全球芯片行業(yè)影響力最大的會議,Hot Chips于每年八月份在斯坦福大學舉行。不同于其他行業(yè)會議以學術(shù)研究為主,Hot Chips是一場產(chǎn)業(yè)界的盛會,各大處理器公司會在每年的會上展現(xiàn)他們最新的產(chǎn)品以及在研的產(chǎn)品。
《每日經(jīng)濟新聞》記者注意到,AI浪潮推動數(shù)據(jù)中心激增,同時也伴隨著能源需求的激增。在這樣的背景下,此次的Hot Chips大會上,圍繞人工智能的議題比以往任何一屆都更加活躍。Trevor Cai的演講著眼于解決能源和算力之間的問題,英特爾、IBM和英偉達等則是提出了更節(jié)能的技術(shù)方案。
摩根士丹利在8月份發(fā)布的研究預測稱,生成式AI的電力需求將在未來幾年內(nèi)每年飆升75%,預計到2026年,其消耗的能源量將與西班牙在2022年的消耗量相當??萍季揞^們該如何應對能源挑戰(zhàn)?
當?shù)貢r間8月26日,一年一度的半導體企業(yè)盛會Hot Chips 2024在斯坦福大學紀念禮堂舉行,今年是第36屆。
從會議第一天的情況來看,大部分的話題都集中在了更節(jié)能、安全且可擴展的大規(guī)模AI服務器部署方案上。
OpenAI硬件負責人Trevor Cai發(fā)表了“可預測的擴展和基礎(chǔ)設施”主題演講,談到了提升計算能力所帶來的可預測的擴展效益,這也是OpenAI自成立之初就關(guān)注的重點。一個重要的觀察結(jié)果是,擴大規(guī)??梢援a(chǎn)生更好、更有用的人工智能。“每次計算量翻倍,它都會得到更好的結(jié)果。模型的能力和計算資源的消耗是呈指數(shù)級別的上升的。自2018年以來,行業(yè)中前沿模型的計算量每年增長約4倍。”他說道。
最初,GPT-1只需幾周的時間完成訓練。如今,它已經(jīng)擴展到需要龐大的GPU集群。因此,OpenAI認為AI的基礎(chǔ)建設需要大量投資,因為計算能力的提升已經(jīng)產(chǎn)生了超過8個數(shù)量級的效益。
似乎是為了呼應OpenAI的演講,各大公司今天各自演講也不約而同地提到了大規(guī)模部署AI服務器的計劃方案。
IBM在大會上披露了即將推出的IBM Telum II處理器和IBM Spyre加速器的架構(gòu)細節(jié)。新技術(shù)旨在顯著擴展下一代IBM Z大型機系統(tǒng)的處理能力,通過一種新的AI集成方法幫助加速傳統(tǒng)AI模型和大型語言AI模型的協(xié)同使用。IBM特別強調(diào)這次更新的先進I/O 技術(shù)旨在降低能耗和數(shù)據(jù)中心占用空間。
英偉達也在大會上放出了最新的AI集群架構(gòu)Blackwell的相關(guān)消息。英偉達稱,Blackwell擁有6項革命性技術(shù),可支持多達10萬億參數(shù)的模型進行AI訓練和實時大語言模型(LLM)推理。值得注意的是,英偉達的Quasar量化系統(tǒng)用于確定可以使用較低精度的內(nèi)容,從而減少計算和存儲。英偉達表示他們的宗旨就是在提高能源效率的同時為AI和加速計算性能提供新標準。
除此之外,英特爾、博通、海力士等公司的演講中均提到了更節(jié)能的技術(shù)方案。
科技巨頭們著眼“更節(jié)能的”技術(shù)方案的根本原因在于,當前人工智能熱潮正在增加更強大的處理器以及保持數(shù)據(jù)中心冷卻所需的能源需求。
當前,微軟、Alphabet和Meta等大型科技公司正在投資數(shù)十億美元建設數(shù)據(jù)中心基礎(chǔ)設施,以支持生成式人工智能,但數(shù)據(jù)中心的激增也伴隨著能源需求的激增。
據(jù)彭博社報道,僅去年,大型科技公司就向數(shù)據(jù)中心設施投入了約1050億美元。谷歌、蘋果和特斯拉等公司不斷通過新產(chǎn)品和服務增強AI能力。每項AI任務都需要巨大的計算能力,這意味著數(shù)據(jù)中心會消耗大量電力。國際能源署 (IEA)預測,到2026年,全球數(shù)據(jù)中心每年使用的能源量將相當于日本的電力消耗量。
Hugging Face的人工智能和氣候負責人Sasha Luccioni提到,雖然訓練AI模型需要耗費大量能源(例如,訓練 GPT-3 模型耗費了大約1300兆瓦時的電力,而GPT-4的訓練消耗是GPT3的50倍),但通常只進行一次。然而,由于查詢量巨大,模型生成響應可能需要更多能源。
例如,當用戶向 ChatGPT 等AI模型提問時,需要向數(shù)據(jù)中心發(fā)送請求,然后強大的處理器會生成響應。這個過程雖然很快,但消耗的能量也是巨大的。根據(jù)艾倫人工智能研究所的數(shù)據(jù),對ChatGPT進行一次查詢所消耗的電量相當于為燈泡點亮 20 分鐘——是簡單Google搜索耗電量的10倍以上。
然而,全球的電力資源有限,而數(shù)據(jù)中心需要持續(xù)穩(wěn)定的電力供應來運行服務器和其他核心運營設備。如果能源供應不穩(wěn)定,停機可能會給企業(yè)和其他用戶造成重大經(jīng)濟損失。此外,巨大的能源消耗也引發(fā)了人們對環(huán)境的擔憂。
為應對這一挑戰(zhàn),科技公司們開始尋找解決方案。
部分公司選擇更清潔且高效的能源供給,如核能。亞馬遜最近在賓夕法尼亞州東北部購買了一個價值6.5億美元的核能數(shù)據(jù)中心園區(qū)設施,該設施將使用核反應堆產(chǎn)生的高達40%的電力,最終使亞馬遜能夠減少對當?shù)仉娋W(wǎng)的依賴。與此同時,微軟聘請了核專家來帶頭尋找這種替代電源。微軟還與核電站運營商簽訂了合同協(xié)議,為其位于弗吉尼亞州的一個數(shù)據(jù)中心提供電力。
除此之外,科技公司們不僅在前文所提到的一系列芯片節(jié)能技術(shù)進行努力,也在其他硬件設施和技術(shù)上下足了功夫。
谷歌正在開發(fā)人工智能專用芯片,例如張量處理單元(TPU),這些芯片針對人工智能任務進行了優(yōu)化,而不是使用為游戲技術(shù)創(chuàng)建的圖形處理單元(GPU)。
英偉達針對Blackwell芯片的直接液體冷卻系統(tǒng)還宣布了一項研究,研究表明了如何重新利用從服務器中吸收的熱量并將其回收到數(shù)據(jù)中心。據(jù)英偉達估計,冷卻最多可減少數(shù)據(jù)中心設施耗電量28%。
然而,威斯康星大學麥迪遜分校的教授辛克萊提醒,杰文斯悖論在這里依然適用,即資源效率的提高往往會增加其總體利用率,而不是減少。“提高人工智能的效率,雖然減少了單次能耗,但整體使用率的增加最終會導致總體能耗的上升,”辛克萊解釋道。這個悖論不僅適用于19世紀的火車煤炭使用,同樣適用于當今的人工智能和電力消耗。
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP