《半導體》NVIDIA、聯發科WoA AI PC晶片Computex亮相?外資Say No!
【時報記者王逸芯台北報導】美系外資出具最新研究報告,指出沙烏地阿拉伯Humain人工智
慧公司正式成立,計劃在五年內部署500兆瓦計算能力,預期這些超級計算機將混合使用NVL
72和HGX格式的Blackwell GPU伺服器,需求預計持續到2026年第一季。AMD也成為Humain的戰
略合作夥伴之一。另外,外資也預測,下周Computex,目前暫不預期NVIDIA、聯發科(2454)
的WoA AI PC晶片會在展會期間發布,主要是因為軟體支援尚未完成。
美系外資表示,沙烏地阿拉伯近日宣布成立名為Humain的國有人工智慧公司,這是該國在
努力將自己轉型為全球人工智慧重鎮過程中的重要步驟。該項目總投資達100億美元,主要是
在未來五年內部署500兆瓦的人工智慧計算能力,並由SMI擔任該計劃的主要原始設備製造商
(ODM)。計劃的第一階段將部署18,000個NVIDIA的GB300 Grace Blackwell人工智慧超級計
算機,並配備NVIDIA InfiniBand網絡。調查顯示,這些超級計算機將混合使用NVL72和HGX格
式的Blackwell GPU伺服器,需求預計持續到2026年第一季。AMD也成為Humain的戰略合作夥
伴之一。
美系外資表示,現階段對2025年CoWoS-L的預測保持不變,預計Blackwell將出貨39萬個單
位。近期市場中關於Blackwell削減至34萬至35萬單位的討論甚囂塵上,但根據供應鏈調查顯
示,2025年上半年,NVIDIA應該會消耗16萬個CoWoS-L,並在2025年第三季消耗超過10萬個。
假設93%的CoWoS-L用於生產雙芯片(B200/B300),我們預計台積電將在2025年生產510萬顆
芯片。根據我們的大中華區下游團隊的預期,2025年上半年,GB200 NVL72的出貨量將達69,
000個,將消耗大約500個B200芯片的庫存。對於HGX(每台伺服器配備八個GPU),我們的上
游調查顯示大約45,000至50,000個HGX伺服器將出貨,這將消耗另外400個B200芯片的庫存。
我們預計,在2025年第三季,當NVL72伺服器架的良率提高時,晶片庫存將進一步消化。
美系外資表示,美國商業部(BIS)在5月13日宣布了一項新規則,這與的供應鏈調查相符
,該規則表示中國的推理處理可能需要B30芯片。調查顯示,少量的B30芯片預計將在2025年
第二季生產,並且該產量可能在2025年第三季達到50萬個單位。然而,H20/HBM版本應該會被
暫停,庫存可能會轉向H200,並且我們目前的CoWoS-S預訂(約30,000個取消訂單)將在Amk
or被取消。
最後,美系外表示,台北國際電腦展(Computex)下週登場,目前暫不預期NVIDIA/聯發科
的WoA AI PC晶片會在展會期間發布,主要是因為軟體支援尚需進一步完成。