用戶名: 密碼: 驗證碼:

集邦咨詢:預估2023年全球AI服務器出貨量年增38.4% AI芯片將增長46%

摘要:TrendForce集邦咨詢發布報告稱AI服務器及AI芯片需求同步看漲,預估2023年AI服務器(包含搭載GPU、FPGA、ASIC等)出貨量近120萬臺

  ICC訊  TrendForce集邦咨詢發布報告稱AI服務器及AI芯片需求同步看漲,預估2023年AI服務器(包含搭載GPU、FPGA、ASIC等)出貨量近120萬臺,同比增長38.4%,占整體服務器出貨量近9%,至2026年將占15%。2022~2026年AI服務器出貨量年復合增長率同步上調至22%,AI芯片2023年出貨量將增長46%。

  TrendForce集邦咨詢表示,NVIDIA GPU為AI服務器市場搭載主流,市占率約60~70%,其次為云端業者自主研發的ASIC芯片,市占率逾20%。NVIDIA市占率高的主要原因有三,其一,目前不論美系或中系云端服務從業者(CSP),除了采購原有的NVIDIA的A100與A800外,下半年需求還將陸續導入H100與H800。

  其二,高端GPU A100及H100的高獲利模式也是關鍵,由于NVIDIA旗下產品在AI服務器市場已擁有主導權的優勢,據TrendForce集邦咨詢研究,H100本身的價差也依據買方采購規模,會產生近5000美元的差異。

  其三,下半年ChatBOT及AI運算風潮將持續滲透至各種專業領域(如云端/電商服務、智能制造、金融保險、智慧醫療及智能駕駛輔助等)的開發市場,同步帶動每臺搭配4~8張GPU的云端AI服務器,以及每臺搭載2~4張GPU的邊緣AI服務器應用需求漸增,預估今年搭載A100及H100的AI服務器出貨量年增率逾5成。

  此外,從高端GPU搭載的高帶寬內存(HBM)來看,NVIDIA高端GPU H100、A100主采HBM2e、HBM3。以今年H100 GPU來說,搭載HBM3技術規格,其中傳輸速度也較HBM2e快,可提升整體AI服務器系統運算效能。隨著高端GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升,TrendForce集邦咨詢預估2023年HBM需求量將年增58%,2024年有望再成長約30%。

【加入收藏夾】  【推薦給好友】 
1、凡本網注明“來源:訊石光通訊網”及標有原創的所有作品,版權均屬于訊石光通訊網。未經允許禁止轉載、摘編及鏡像,違者必究。對于經過授權可以轉載我方內容的單位,也必須保持轉載文章、圖像、音視頻的完整性,并完整標注作者信息和本站來源。
2、免責聲明,凡本網注明“來源:XXX(非訊石光通訊網)”的作品,均為轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責。因可能存在第三方轉載無法確定原網地址,若作品內容、版權爭議和其它問題,請聯系本網,將第一時間刪除。
聯系方式:訊石光通訊網新聞中心 電話:0755-82960080-168   Right
亚洲欧美专区精品伊人久|高清在线不卡一区二区男人与动一物|欧美bbbbbxxxxx精品|亚洲处破女AV日韩精品波波网