22/03/2024
AI晶片 | NVIDIA最強AI晶片誕生!Blackwell運算力領先群雄,市場形勢大好,卻暗藏2大隱憂?
當今科技市場的焦點已不再是Google、蘋果(Apple)等傳統龍頭,而是手握全球9成AI晶片供應的輝達(NVIDIA)。執行長黃仁勳在GTC 2024大會上,發表新一代Blackwell架構GPU,AI訓練速度比上代晶片快4倍、推理能力優30倍,能夠運行兆級參數規模的大型語言模型,重新定義AI產業的天花板。看似優勢佔盡的NVIDIA是否可以一直順風順水呢?究竟在一片好景背後暗藏著甚麼隱憂呢?
復辦實體GTC大會受全球注目
2009年,NVIDIA舉辦首屆GPU Technology Conference(GTC)大會,參加人數頂多約1,500人;2020年新冠疫情爆發,移師至網上舉行;睽違4年後,該公司砸下重金復辦實體GTC大會,2024年3月18日在美國聖荷西SAP中心舉行,全場2萬個座位皆無虛席,輝達官方YouTube頻道的直播更有逾6萬人收看。
黃仁勳在GTC展台上,左手拿著2023年全球瘋狂搶購的Hopper GPU,右手則拿著體積更大、效能更強的新一代AI晶片Blackwell GPU。這款以首位入選美國國家科學院的黑人科學家大衛·布萊克威爾(David Blackwell)命名的GPU共有3個版本,分別為單顆晶片B100與B200、以及組合型超級AI晶片GB200。
黃仁勳透露,Blackwell架構晶片(左)定價介乎3萬至4萬美元(約23.4萬至31.2萬港元),即是跟上代Hopper(右)定價區間相若。(圖片來源:翻攝輝達官方YouTube影片)
GB200推理能力比前作高30倍
使用2顆Blackwell架構、台積電4奈米製程的B200 GPU,再加上1顆ARM架構的Grace CPU,合組成GB200。在基於GPT-3模型的基準測試中,它的性能是前一代晶片H100的7倍、AI訓練速度快上4倍、AI推理能力高出30倍,惟能源消耗卻低25倍。
GB200是今次的旗艦級產品,內含1顆Grace CPU和2顆B200 GPU,將於2024年稍晚供貨,Google、微軟和亞馬遜均已下單訂購。(圖片來源:翻攝輝達官方YouTube影片)
Blackwell GPU性能是Hopper的7倍,訓練速度提升4倍,推論速度更加快上30倍。(圖片來源:翻攝輝達官方YouTube影片)
為迎合數據中心的需要,NVIDIA推出以GB200為核心的GB200 NVL72機架系統,把72顆Blackwell GPU與36顆Grace CPU集成到一組巨大的液冷機架,足以運轉規模達27兆組參數的大型語言模型。其特殊的液冷設計具備1300kW強大散熱能力,水冷液以每秒循環2公升的速度,可將滾燙的AI伺服器降溫至攝氏45度。
瑞穗證券分析師喬丹·克萊因(Jordan Klein)表示,當NVIDIA不斷強調B100用於AI推論的潛力後,外界擔心同樣以AI推論能力作賣點的AMD MI300可能會變成「路人甲」,逐漸被市場忽略。半導體分析師陸行之更直言,假如GB200賣得很好,那麼AMD與英特爾(Intel)的AI晶片「就不用玩了」。
輝達推AI代工欲做AI界台積電
當市場將NVIDIA視為AI晶片霸主之際,黃仁勳反而高喊輝達不是AI硬件公司,而是「AI平台企業」。他以台積電作比喻:「大家帶著構想去找台積電,台積電把晶片製造出來;我們也一樣,這就是『AI代工』。」黃仁勳的目標是,把NVIDIA變成AI界的台積電。
有鑑於此,NVIDIA推出為數十種企業而設的生成式AI微服務。例如面向醫療產業,輝達推出逾20項醫療專用AI微服務,並更新BioNeMo模型以強化AI輔助藥物開發;針對製造業,NVIDIA則發表人形機械人的通用基礎模型「GR00T」,讓具備自然語言理解能力的機械人,透過觀察和模仿,快速學習各項生產技能,進而融入工廠環境,提升生產線產能。
黃仁勳宣布,即將推出人形機械人計劃「Project GR00T」,以推動AI機械人的產業發展。(圖片來源:翻攝輝達官方YouTube影片)
政府管制晶片出口損害輝達收入
NVIDIA的業務發展看似形勢大好,是否真的毫無逆風?答案當然不是。現時各國監管機關擔憂AI對社會、經濟、以至國家安全構成風險,正尋求技術規管。自2023年起,美國政府限制高效能AI晶片和高階晶片製造設備出口給部分中國企業,輝達A100和H100晶片也被納入管制之列,損害了NVIDIA第三季收入。該公司表示,Blackwell GPU同樣會受到美國出口管制的約束。
然而,輝達的最大隱憂不是來自美國政府,而是自己的客戶。科技巨頭希望自家的AI伺服器可以建基於自己的解決方案,而不是長期依靠外部單一供應商。例如雲端平台3大巨頭,亞馬遜(Amazon)自行研發Inferentia與Trainium晶片,分別用於AI模型推論與訓練;微軟(Microsoft)亦推出自研晶片Maia 100和Colbert 100應戰;Google則早已手握自家開發的TPU,用作AI雲端運算。
NVIDIA大客戶爭相自研AI晶片
近年,雲端3巨頭不斷增加對IT基建的投資。美國銀行(BofA)調高Amazon、Microsoft、Google在2023年雲端支出總額至840億美元(約6,552億港元),成長率為14%;又預測2024年支出總額將攀升至1,160億美元(約9,048億港元),成長率高達22%。
此外,依靠NVIDIA GPU起家的Open AI,執行長山姆·奧特曼(Sam Altman)甚至想與阿聯酋政府、軟銀集團合作,集資7兆美元(約54.6兆港元)自建半導體供應鏈。這些科技巨頭有錢、有技術,一旦下決心要脫離對單一廠商的依賴,絕對是NVIDIA值得懼怕的對手!
【etnet 30周年】多重慶祝活動一浪接一浪,好禮連環賞! ► 即睇詳情