在美国制裁之下,中国能否实现人工智能存储芯片的自给自足?
(Baonghean.vn)——中国政府已决定,即使需要很多年时间,中国也必须找到实现人工智能(AI)存储芯片自给自足的方法。
近年来,诸如 ChatGPT 等生成式人工智能 (AI) 应用的快速发展,使得专为 AI 处理器设计的高带宽内存 (HBM) 芯片成为最抢手的组件。与此同时,美国政府对中国的制裁迫使中国政府不得不实现 HBM 的自给自足,尽管这可能需要数年时间。

韩国半导体巨头SK海力士和三星电子目前占据全球HBM存储芯片市场高达90%的份额,而HBM存储芯片是训练OpenAI旗下ChatGPT等人工智能系统的关键组件。市场研究公司TrendForce的研究人员表示,去年SK海力士在全球HBM市场占有50%的份额,三星以40%位居第二,美国竞争对手美光科技则占10%。
两家韩国公司都宣布计划明年将其HBM芯片产量翻一番,尽管由于供应过剩导致营业利润下滑,它们正在缩减内存业务的其他领域。SK海力士成为首家量产用于英伟达H100图形处理器(GPU)的先进第四代HBM-3芯片的公司。
HBM 内存芯片,下一代专用于人工智能处理器的内存芯片
HBM技术将内存芯片垂直堆叠,如同摩天大楼的楼层,从而缩短信息传输的距离。这些内存塔通过一种名为“中介层”的超高速连接与中央处理器(CPU)或图形处理器(GPU)相连,该中介层位于芯片和电路板之间。据TrendForce称,英伟达通过使用HBM芯片加速GPU和内存堆栈之间的数据传输,树立了新的行业标准。
英伟达备受追捧的H100 GPU采用HBM-3显存,据英伟达称,其显存带宽高达每秒3TB。与此同时,SK海力士表示,HBM技术是“在自动驾驶汽车中部署L4和L5级自动驾驶的先决条件”。
SK海力士近日宣布,已成功研发出下一代高端动态随机存取存储器(DRAM)HBM-3E,用于人工智能应用,并已向客户提供样品以评估产品性能。预计将于2024年上半年开始量产,据悉包括美国芯片公司AMD和英伟达在内的客户已纷纷预订该产品。
预测显示,2023 年 HBM 存储芯片市场规模预计将达到 20.4 亿美元,到 2028 年预计将达到 63.2 亿美元,在 2023-2028 年预测期内的复合年增长率 (CAGR) 为 25.36%。
其中,推动 HBM 市场增长的关键因素包括对高带宽、低功耗和高度可扩展内存的需求不断增长,人工智能的日益普及以及电子设备小型化的趋势。
TrendForce预测,人工智能存储芯片需求的增长推动了HBM出货量的增长,今年增幅将接近60%。与此同时,中国将完全依赖国内生产,这使其面临着与时间赛跑的局面。
中国正式加入人工智能存储芯片竞赛了吗?
随着世界领先企业纷纷采用尖端技术,北京跻身世界顶级存储芯片制造商行列并用国产产品替代国内进口产品的雄心壮志正面临越来越大的风险。与此同时,美国的制裁也阻碍了中国迎头赶上的能力。
不久前,人们还认为中国在先进的3D NAND闪存和DRAM领域正迅速赶上国际供应商。然而,随着ChatGPT时代的到来,由于美国政府的出口限制,中国长江存储科技集团(YMTC)和长信存储科技(CXMT)等公司无法继续追赶,中国与国际供应商之间的差距正在扩大。
据报道,中国正寻求自主生产高密度金属薄膜(HBM),以实现自给自足。《南华早报》报道称:“尽管受华盛顿制裁的影响,中国要赶上SK海力士、三星电子和美光科技等全球领先企业将面临重重困难,但中国政府已决定,即使需要数年时间,中国也必须实现高密度金属薄膜的自给自足。”
据《南华早报》援引半导体行业消息人士报道,中国领先的DRAM制造商CXMT是中国政府开发HBM存储芯片的最大希望;然而,该产品可能需要长达四年的时间才能上市。消息人士补充说,如果CXMT或其他中国芯片制造商决定继续推进HBM存储器的生产,他们将不可避免地面临困难,因为他们将不得不使用技术过时的设备。
据半导体行业专家称,尽管HBM存储芯片性能优异,但并不一定需要极紫外(EUV)光刻等尖端光刻技术。这意味着即使没有最新设备,中国也能生产自己的HBM芯片。
简而言之,众所周知,中国在最新技术领域向来对战略细节讳莫如深,让外界对其在实现技术自给自足(包括人工智能存储芯片)方面取得的进展进行猜测。


