搜尋結果

搜尋結果

關鍵字


新聞
TrendForce:NVIDIA Blackwell新平台產品需求看增,預估帶動2024全年台積電CoWoS總產能提升逾150%

2024/04/16

半導體

NVIDIA新一代平台Blackwell,包含B系列GPU及整合NVIDIA自家Grace Arm CPU的GB200等。TrendForce指出,GB200的前一代為GH200,皆為CPU+GPU方案,主要搭載NVIDIA Grace CPU及H200 GPU,但以GH200而言,出貨量估僅占整體NVIDIA高階GPU約5%。目前供應鏈對NVIDIA GB200寄予厚望,預估2025年出貨量有機會突破百萬顆,占NVIDIA高階GPU近4~5成。

新聞
TrendForce:預估2024年全球伺服器整機出貨量年增2.05%,AI伺服器占比約12.1%

2024/02/29

半導體

根據TrendForce最新研究顯示,伺服器整機出貨趨勢今年主要動能仍以美系CSP為大宗,但受限於通膨黏著度高,企業融資成本居高不下,壓縮資本支出,整體需求尚未恢復至疫情前成長幅度,預估2024年全球伺服器整機出貨量約1,365.4萬台,年增約2.05%。同時,市場仍聚焦部署AI伺服器,AI伺服器出貨占比約12.1%。

新聞
TrendForce:預估2024年北美四大雲端服務業者對高階AI伺服器需求量將逾六成

2024/02/27

半導體

根據TrendForce最新預估,以2024年全球主要雲端服務業者(CSP)對高階AI 伺服器(包含搭載NVIDIA、AMD或其他高階ASIC晶片等)需求量觀察,預估美系四大CSP業者包括Microsoft、Google、AWS、Meta各家占全球需求比重分別達20.2%、16.6%、16%及10.8%,合計將超過6成,居於全球領先位置。其中,又以搭載NVIDIA GPU的AI 伺服器機種占大宗。

新聞
TrendForce: 2024年Copilot進入商轉,將同步帶動AI Server及終端AI PC發展

2024/01/17

消費性電子 , 半導體

AI話題熱議,2024年將拓展至更多邊緣AI應用,或延續AI server基礎,推至AI PC等終端裝置。TrendForce預期,2024年全球AI伺服器(包含AI Training及AI Inference)將超過160萬台,年成長率達40%,而後續預期CSP也將會更積極投入。

新聞
TrendForce: 中國持續強化AI晶片自主研發能力,但未來高階AI晶片發展仍將受限

2023/12/11

半導體

華為(Huawei)旗下海思(HiSilicon)投入AI晶片自主化研發,推出新一代AI晶片昇騰(Ascend)910B。對華為而言,昇騰除用於自家公有雲基礎設施,同時也出售給其他中國業者。據TrendForce了解,Baidu今年即向華為訂購逾千顆昇騰910B晶片,用以建置約200台AI伺服器。此外,中國業者科大訊飛(Iflytek)今年8月也與華為對外共同發表搭載昇騰910B AI加速晶片的「星火一體機」,適用於企業專屬LLM(Large Language Model)的軟硬體整合型設備。

新聞
TrendForce:NVIDIA雲端AI需求強但中國業務受阻,預估2024年中國高階AI伺服器出貨占比低於4%

2023/11/23

半導體

受惠於北美大型CSP業者對AI伺服器需求高漲,根據NIVIDA日前公布的FY3Q24財報資料顯示,資料中心部門營收創新高。不過,據TrendForce觀察,儘管NVIDIA高階GPU出貨動能強勁,然近期美國政府出台對中國新一波禁令卻對其中國區業務帶來衝擊,NVIDIA雖然快速推出符合規範的產品如H20、L20及L2,但中國雲端業者仍在測試驗證階段,難在第四季對NVIDIA貢獻實質營收,預估2024年第一季才會逐步放量。

新聞
TrendForce:Cloud AI Server需求強勁,促NVIDIA FY2Q24資料中心業務占比首次突破76%

2023/08/24

半導體

據NVIDIA最新財報數據(FY2Q24)顯示,其資料中心業務達103.2億美元,季成長率141%,年成長率更高達171%,且NVIDIA看好後續成長力道。TrendForce認為,主要NVIDIA高營收成長動力來自於其資料中心AI伺服器相關解決方案業務,主力產品包含AI加速晶片GPU、AI伺服器參考架構HGX等,作為大型資料中心的AI 基礎設施。

新聞
TrendForce:AI及HPC需求帶動,預估2023年對HBM需求容量將達近60%

2023/06/28

半導體

據TrendForce研究顯示,目前高階AI伺服器GPU搭載HBM已成主流,預估2023年全球HBM需求量將年增近六成,來到2.9億GB ,2024年將再成長三成。

新聞
TrendForce:大型雲端業者積極建置AI 伺服器,加速推升AI晶片與HBM需求,預估2024年先進封裝產能將提升3~4成

2023/06/21

半導體

TrendForce指出,為提升整體AI伺服器的系統運算效能,以及記憶體傳輸頻寬等,NVIDIA、AMD、Intel等高階AI晶片中大多選擇搭載HBM。目前NVIDIA的A100及H100,各搭載達80GB的HBM2e及HBM3,在其最新整合CPU及GPU的Grace Hopper晶片中,單顆晶片HBM搭載容量再提升20%,達96GB。

聯繫我們