美国制裁下中国能实现人工智能存储芯片自给自足吗?

潘文和 DNUM_ADZAJZCACD 12:14

(Baonghean.vn)——中国政府已下定决心,必须找到一种方法,实现人工智能(AI)存储芯片的自给自足,尽管这可能需要很多年的时间。

近年来,诸如 ChatGPT 之类的生成式人工智能 (AI) 应用的快速发展,使得专为 AI 处理器设计的存储芯片高带宽存储器 (HBM) 成为最抢手的组件。与此同时,华盛顿政府对中国的制裁使得中国政府别无选择,只能实现 HBM 的自给自足,尽管这可能需要很多年的时间。

Anh minh hoa (2).jpg
插图照片。

目前,半导体巨头SK海力士和韩国三星电子控制着全球高达90%的HBM内存芯片市场,而HBM内存芯片是训练OpenAI的ChatGPT等人工智能系统的关键部件。市场研究公司TrendForce的研究人员表示,SK海力士去年占据了全球HBM市场份额的50%,其次是三星(40%)和美国竞争对手美光科技(10%)。

两家韩国公司都宣布计划明年将HBM芯片产量翻一番,尽管由于供应过剩挤压了营业利润,它们正在缩减内存领域其他部分的产能。SK海力士成为首家量产英伟达H100图形处理器(GPU)所用先进第四代HBM-3芯片的公司。

HBM内存芯片是下一代专用于人工智能处理器的内存芯片

HBM 将内存芯片垂直堆叠,就像摩天大楼的楼层一样,从而缩短了信息传输的距离。这些内存塔旨在通过位于芯片和电路板之间的超高速连接(称​​为“中介层”)连接到中央处理器 (CPU) 或 GPU。据 TrendForce 报道,Nvidia 通过使用 HBM 芯片来加速 GPU 和内存堆栈之间的数据传输,树立了新的行业标准。

Nvidia 备受追捧的 H100 GPU 配备了 HBM-3 内存,据 Nvidia 称,该内存可提供高达每秒 3TB 的内存带宽。与此同时,SK 海力士表示,HBM 技术是“在自动驾驶汽车中部署 4 级和 5 级自动化的先决条件”。

SK海力士最近还宣布,已成功开发出用于人工智能应用的下一代高端动态随机存取存储器(DRAM)HBM-3E版本,并已向客户提供样品以评估产品性能。该产品预计将于2024年上半年开始量产,据称美国芯片公司AMD和英伟达等客户正在排队等待这款新产品。

预测显示,HBM内存芯片市场规模预计在2023年达到20.4亿美元,预计到2028年将达到63.2亿美元,在2023-2028年预测期内的复合年增长率(CAGR)为25.36%。

其中,推动HBM市场增长的关键因素包括对高带宽、低功耗和高度可扩展内存的需求不断增长、人工智能的采用日益增加以及电子设备小型化趋势日益增强。

TrendForce 预测,人工智能内存芯片需求的不断增长将推动 HBM 出货量的增长,今年的增幅将接近 60%。与此同时,中国将完全依赖国内生产,因此必须与时间赛跑。

中国正式加入AI存储芯片竞赛了吗?

随着全球领先企业纷纷采用尖端技术,北京跻身全球顶级存储芯片制造商行列、并在国内市场用国产产品取代进口产品的雄心壮志正面临越来越大的风险。与此同时,美国的制裁也阻碍了中国迎头赶上的能力。

不久前,人们还认为中国在先进的3D NAND闪存和DRAM领域正在迅速追赶国际供应商。然而,在ChatGPT时代,由于美国政府的出口限制,中国的长江存储科技股份有限公司(YMTC)和长鑫存储科技股份有限公司(CXMT)无法继续追赶,两者之间的差距正在扩大。

据报道,中国正寻求自主生产高带宽存储器(HBM),以实现自给自足。《南华早报》报道称:“尽管受华盛顿制裁的影响,追赶SK海力士、三星电子和美光科技等全球领先企业将面临艰巨挑战,但中国政府已下定决心,必须实现HBM的自给自足,即使这可能需要数年时间。”

《南华早报》援引半导体行业消息人士的话称,中国领先的 DRAM 制造商长鑫存储是中国政府开发 HBM 内存芯片的最大希望;然而,该产品上市可能需要长达四年时间。消息人士补充说,如果长鑫存储或其他中国芯片制造商决定生产 HBM 内存芯片,他们将不可避免地面临困难,因为他们将不得不使用过时的设备。

半导体行业专家表示,尽管HBM内存芯片性能出色,但并不一定需要极紫外(EUV)光刻技术等尖端光刻技术。这意味着即使没有最新设备,中国也能生产自己的版本。

简而言之,中国以对其最新技术的战略保密而闻名,外界只能猜测其在实现技术自给自足方面取得的进展,包括人工智能存储芯片。

潘文和