2024年05月05日 星期日
農曆甲辰年 叁月廿七
简体中文
登錄 | 注冊

ChatGPT訓練1次相當於“報廢”3000輛特斯拉 電老虎


2023-04-15 时刻新闻 | 聽新聞 國語 | 聽新聞 粵語 【字號】

4月15日,據《虎嗅》報道,由OpenAI自主開發的聊天應用ChatGPT風靡全球後,立即在全球範圍內掀起了大模型開發的熱潮。但準備參戰的玩家們很快便認清現實,這不過是壹場由巨頭主宰的遊戲,其中的關鍵,就是能耗。

知名計算機專家吳軍的形容併不誇張——ChatGPT每訓練壹次,相當於3000輛特斯拉的電動汽車,每輛跑到20萬英裏,約32.19萬公裏。而普通家用汽車年均行駛裏程在1.5萬公裏左右,ChatGPT每訓練壹次,就相當於3000輛特斯拉在壹個月走完了21年的路。

即便是對大模型躍躍欲試,準備“帶資入組”的大佬,也不得不掂量下:腰包裏的銀兩,究竟夠花多久?

過去壹年,OpenAI的總支出是5.44億美元。國盛證券估算,GPT-3的單次訓練成本就高達140萬美元,對於壹些更大的LLM(大型語言模型),訓練成本介於200萬美元至1200萬美元之間。

其中,“大模型訓練成本中60%是電費,”華爲AI首席科學家田奇在近日壹場AI大模型技術論壇上強調,電力的降本增效已迫在眉睫。如果大模型普及,全球飛速運轉的服務器,怕不會把地球燒了。

既然大模型訓練的成本中,電費佔主要部分,那麽究竟是哪些環節在耗電?又能如何優化?

大模型是“電老虎”

OpenAI曾在其《AIandCompute》分析報告中指出,自2012年以來,AI訓練應用的電力需求每3個月到4個月就會翻壹倍。根據田奇給出的數據,AI算力在過去10年至少增長了40萬倍。其中,拉高AI大模型能耗的壹大要因,就是參數訓練集的規模。

OpenAI首席執行官SamAltman在接受公開採訪時表示,GPT-3的參數量爲1750億。最近發布的GTP-4 參數量是GTP-3的 20 倍,計算量是GTP-3的10倍。最快於2024 年底發布的GTP-5 ,參數量將達到GTP-3的100 倍,計算量將飙升至200到400倍。

根據斯坦福人工智能研究所(HAI)發布的《2023年人工智能指數報告》,訓練像OpenAI的GPT-3這樣的人工智能模型所需消耗的能量,足可以讓壹個普通美國家庭用上數百年了。GPT-3是目前大模型中有據可查的第壹大“電老虎”,耗電量高達1287兆瓦時。

參數訓練集的規模,是拉高大模型能耗的主要因素。其中AI處理器和芯片,是產生能耗最主要的地方,壹位信息和通信技術從業者告訴虎嗅,CPU 和GPU 的功耗通常佔服務器整機的80%。不過和普通服務器750W到1200W的標準功耗相比,AI服務器由於配置多個係統級芯片,在運行AI模型時會產生更多的能耗。

以英偉達DGX A100服務器爲例,搭載8顆A100 80GB GPU,最大係統功耗達到6500W,外形尺寸爲6U,考慮42U的標準機櫃,則單機櫃可放置7個DGX A100服務器,對應功耗爲45.5KW。

按照ChatGPT在今年1月日均1300萬的UV標準,OpenAI需要3萬多張A100 GPU,初始投入成本約爲8億美元,折算下來的電費每天是5萬美元左右。

“如果大模型的使用者越來越多,爲了保證時延,需要追加服務器訂單,來提供更多的基礎算力。假設有10萬用戶的併發計算量,差不多要30萬到40萬張GPU才夠。”某頭部數據中心業務負責人推算道。

數據顯示,ChatGPT的總算力消耗約爲3640PF-days,這需要七到八個投資規模30億、算力爲500P的數據中心才能支撐運行。根據半導體行業資訊機構SemiAnalysis估算,未來如果讓ChatGPT承擔谷歌搜索的全部訪問量,至少也需要410萬張英偉達A100 GPU。

OpenAI訓練其模型所需的雲計算基礎設施規模是前所未有的,比業內任何人試圖構建的GPU算力集群都要龐大 

目前,微軟在六十多個Azure數據中心部署了幾十萬張GPU,爲ChatGPT提供超強算力。作爲OpenAI最大的投資方,微軟拿到了雲計算基礎設施的獨家供應權,併開始下壹代AI超級計算機的開發工作當中,數萬張英偉達A100 GPU以及新壹代H100 GPU都將被導入其中。

前所未有的算力規模,連業內專家都在感慨,這是壹件多麽瘋狂的事。

AI引發新技術革命

瘋狂的事,催生更瘋狂的想象力。

眼下,就連呼籲暫停大模型開發的馬斯克,也要打造“推特版的ChatGPT”了。

根據美國知名科技媒體Business Insider 報道,馬斯克已經購買了壹萬塊GPU,通過生成式的AI大模型和海量數據,強化推特的搜索功能併幫助其廣告業務重整旗鼓。

作爲OpenAI的早期投資人,外界壹直對馬斯克抵製AI發展的態度半信半疑。就在本月初,網絡上還有傳言稱馬斯克將在半年後打造比GPT4更強大的大模型。

更有傳言稱,馬斯克計劃通過SpaceX把超級計算機搬到太空上,目的是節約製冷和耗能。且不論這件事的真假,看起來倒是個好點子。

打造太空數據中心,似乎能享有得天獨厚的資源禀賦:24小時天然低溫散熱,全年無限量太陽能,而且全部都免費。那麽這個絕妙的創意,到底靠不靠譜?

壹位民營商業航天專家否定了這個想法,他告訴虎嗅,太空超低溫環境確實不假,但很多人忽略了壹個基本的物理常識,那就是所有熱量的交換都是靠分子運動實現的。而太空環境趨近於真空,所含物質過於稀少,因此,“雖然溫度低,但是導熱慢,自然散熱條件其實遠不如地面。”

其次,目前衛星太陽能帆闆的供電係統普遍功率隻有1200W,無論是電力供應還是成本,地面光伏解決方案都有絕對的優勢。

另外,訓練大模型需要大量的數據輸入和輸出,這要求服務器具備超高的網絡帶寬能力。太空信息基礎設施提供商艾可薩聯合創始人王玮認爲,數據中心作爲網絡互聯底座,保證數據傳輸的穩定性和速率至關重要。但就目前來看,“即便消耗星鏈全部的帶寬,都未必都能保證大模型訓練所需的數據實時傳輸需求。”

當然,還有壹些革命性的技術創新被ChatGPT帶火,中科創星創始合夥人米磊表示,最典型的就是光子技術。比如具備高算力、低能耗優勢的光電共封裝(CPO)技術。簡而言之就是將光器件和交換芯片封裝在壹起,爲暴漲的算力需求提供了壹種高密度、高能效、低成本的高速互連解決方案。

米磊認爲,本輪大模型領域的熱潮代表了“AI技術的發展進入了全新階段”。作爲壹種用光進行運算的芯片,其耗電量僅佔同等級電子芯片的六分之壹。隨着人工智能不斷發展,訓練、運行這些產品需要的算力水平也越來越高,行業對高速率、低能耗的光芯片也越發期待。

截至目前,中科創星在光電領域累計投資了超過150家企業。早在2016年米磊就提出,光是人工智能的基礎設施,光子是新壹代信息技術基石的理念。“喊了這麽多年,冷門的技術終於被ChatGPT帶火了。”最近二級市場上光芯片相關股票的大漲也體現出了這壹點。這種偶然性,在米磊看來是必然趨勢。 

着眼於當下,降低AI模型整體能耗、節省電費開支的主要方式,依然是想辦法提高數據中心的散熱效率。中金公司認爲,以液冷技術爲代表的主動散熱技術有望憑借優良的散熱性能被更多地採用。

相較於傳統的風冷係統,液冷係統直接將熱負荷傳遞至冷凍水係統中,製冷效率更高且佔地更小,能夠提升服務器的使用效率及穩定性,滿足高功率密度機櫃的散熱要求。

例如英偉達HGX A100採用的直接芯片(Direct-to-Chip)冷卻技術,在機架內直接整合液冷散熱係統,取代傳統的風冷係統散熱,實測消耗的能源減少了約30%。而液冷數據中心的PUE(電源使用效率)能達到1.15,遠低於風冷的PUE 1.6。

隨着大模型對算力的渴求,市場對高性能芯片的需求還將進壹步提升。新思科技全球資深副總裁兼中國董事長葛群就曾表示,到2025年全球數據中心佔整個全球用電量將要提升到全球的20%。“因此,在全球最領先的科技公司中,最重要的壹項技術方向就是如何能夠使他們的數據中心能耗降低,成本降低。”

早在7年前,作爲全球EDA(電子設計自動化)和半導體IP領域龍頭的新思科技就啓動了壹項叫做“高能效設計”的項目,將芯片的能效最大化。

這種能耗管理的邏輯是,數據中心有多塊芯片,每個芯片上有幾十億甚至上百億的晶體管,壹個晶體管,相當於壹個用電單位,以此推斷,壹顆指甲蓋大小的芯片,就是壹個規模龐大的能源網絡。如果能夠將每個晶體管的能耗優化,那麽最後的節能就能輻射到整個數據中心。

壹位資深分析師人士坦言,市場大可不必對大模型的能耗問題過度擔憂。“很多人忽略了壹個事實,那就是大模型對算力的需求未來必然會逐漸下降,這意味着能耗也會相應降低。”例如,微軟剛剛宣布開源的DeepSpeed-Chat就充分印證了這壹點。

據了解,DeepSpeed-Chat是基於微軟 DeepSpeed 深度學習優化庫開發而成,具備訓練、強化推理等功能,併使用了RLHF(基於人類反饋的強化學習)技術,可將訓練速度提升15 倍以上,算力成本大大降低。比如,僅憑單個 GPU就能支持壹個130億參數的類ChatGPT模型,訓練時間也隻需要 1.25 小時。

與此同時,該分析師補充說,未來算力的分布結構壹定會朝着分布式、去中心化的方式演進,即訓練過程在雲端完成,在邊緣和端側重推理。“而不會像現在壹樣,所有的壓力全部由超算中心承擔。”



聲明:聲明:時刻新聞編輯發布的文章並不代表時刻新聞的立場或觀點。

 分享到Twitter 分享到Facebook 分享到Telegram



一周最热
  1. 前事不忘后事之师 - 后疫情时代关于新冠大流行的50个疑问

相關文章

  1. 前事不忘后事之师 - 后疫情时代关于新冠大流行的50个疑问
  2. 澳大利亚籍作家杨恒均被中国判死缓 澳外长表示震惊
  3. 台积电考虑在日本建厂生产3纳米芯片 政府发债券扶持
  4. OpenAI联合创始人阿尔特曼突遭罢免 已加盟微软
  5. 加密货币交易所币安被罚40亿美元 主管赵长鹏认罪
  6. 中国海军093核潜艇失事 55名海军官兵恐已死亡
  7. 教育避坑指南 - 你的孩子不会成功就对了(16)
  8. 教育避坑指南 - 你的孩子不会成功就对了(15)
  9. 马斯克宣布推特最新计划 允许文章设置点击收费
  10. 北京楼市怎么了?想置换的业主卖不动二手房
  11. 郭台铭被问声量已领先侯友宜:媒体不要见缝插针
  12. 加州洛杉矶和长滩两大港口进口量暴跌 政府问题

關于我們 | 使用條款 | 隱私策略 | 聯系我們
©2024 時刻新聞 TN20240505032149