科技大世界
广告
当前位置: 首页-> 滚动 ->内容

HBM霸主SK海力士产能版图再扩张:欲斥资近39亿美元在韩新建DRAM生

发布时间:2024-04-25 02:07来源:证券之星 阅读量:8070   

智通财经APP获悉,AI芯片霸主英伟达的最核心HBM存储系统供应商SK海力士(SK Hynix)计划扩大人工智能基础设施的核心硬件组件——HBM存储系统等下一代动态随机存取存储(DRAM)芯片的产能。据了解,这家韩国存储芯片制造商计划投资约5.3万亿韩元(大约38.6亿美元),在韩国忠清北道的清州建造M15X晶圆厂,作为新的DRAM存储芯片大型生产基地。此前不久SK海力士宣布计划投资约40亿美元,在美国建立大型的芯片先进封装工厂。

据了解,这项大型建设将于4月底开始,预计可能于2025年11月完工,并进行早期的存储芯片批量生产。从长远角度来看,随着AI所需的硬件设备投资规模逐步增加,新生产基地的长期总投资额可能将超过20万亿韩元。

SK海力士总裁兼首席执行官Kwak Noh-Jung表示:“M15X将成为向世界提供人工智能关键存储设备的最核心生产设施,将成为连接公司现在和未来的跳板。”

在全球科技企业布局AI的这股前所未有狂热浪潮中,SK海力士提供的HBM存储系统可谓AI最核心基础设施之一,其重要性与英伟达H100等AI GPU并驾齐驱。该公司在HBM市场占据绝对的主导地位,SK海力士为英伟达高性能AI GPU——H100/H200 HBM存储系统的独家供应商,此外,SK海力士当前已开始全面量产集成英伟达AI GPU的新一代HBM存储——HBM3E,首批出货已经于3月交付给英伟达。

HBM是一种高带宽、低能耗的存储技术,专门用于高性能计算和图形处理领域。通过基于3D堆叠工艺的先进封装,多个DRAM存储芯片能够堆叠在一起形成HBM存储系统,并且通过微细的Through-Silicon Vias进行数据传输,从而实现高速高带宽的数据传输。

HBM主要用于高性能图形卡、AI加速、高性能计算和数据中心服务器等领域,其高带宽特性,以及极低延迟和高能效比使得处理器能够更快地访问存储空间,大幅提高计算性能和效率。在AI基础设施领域,HBM存储系统搭配英伟达H100 AI GPU系统,以及即将量产的B200和H200等AI GPU系统使用。华尔街大行高盛日前发布研报称,预计HBM存储的市场总规模将从2022年到2026年前增长10倍,从2022年的23亿美元增长至2026年的230亿美元。

HBM市场方面,截至2022年,三大原厂HBM市占率分别为SK海力士50%、三星电子约40%、美光约10%,由于SK海力士在HBM领域最早发力,早在2016年已涉足这一领域,因此占据着绝大多数市场份额。有业内人士表示,2023年SK海力士HBM市场份额分布将在55%左右,位列绝对主导地位。

另外,SK海力士还计划按照当初制定的计划,向韩国龙仁半导体产业园区投资120万亿韩元左右。

该公司指出,这些投资规模是为了配合人工智能芯片需求的极度快速增长步伐,尤其是HBM存储系统,并且该公司预计服务器高容量DDR5模块产品需求也将稳步增长。

据媒体报道,这家总部位于韩国的存储巨头还打算投资约40亿美元,在美国印第安纳州西拉斐特建立大型的芯片先进封装工厂,力争扩张HBM存储产能以满足英伟达庞大需求,预计该先进封装厂将于2028年开始运营并初步投产。

声明:免责声明:此文内容为本网站转载企业宣传资讯,仅代表作者个人观点,与本网无关。仅供读者参考,并请自行核实相关内容。

最新文章