Title
您当前的位置: 首页 > > 文章详细
从“数据仓库”到“智能数据引擎”,存储产业链进入“繁荣周期”?
发布时间:2025-09-29

当前,在AI技术快速演进的背景下,存储行业正经历一场深刻的技术变革,从被动的“数据仓库”转变为主动的、智能的“数据引擎”。这场由AI驱动的行业变革,不仅驱动存储技术不断创新与迭代,而且将为存储行业带来规模化的新增长周期。

2025年,全球存储市场正处于由AI驱动的景气周期中。WSTS预计2025年全球存储芯片市场规模将达1938亿美元,同比增17.1%,2026年将一进步增至2283亿美元,同比增17.8%。其中DRAM市场将进一步成长至约1300亿美元,整体市场占比攀升至67%。而作为最为火热的存储类别,Yole预计全球HBM市场规模将从2024年的170亿美元增长至2030年的980亿美元,CAGR达33%。

一方面,2025年人工智能应用加速落地,AI PC、AI手机、AI服务器等智能终端快速普及,生成式A1、自动驾驶、AI眼镜具身智能等新场景不断涌现,带动存储系统从“幕后”走向“台前”。另一方面,三星电子、SK海力士这韩国两大芯片制造商在9月的市值暴增逾千亿美元,而且这一迅猛的涨势有望持续下去。俨然,一场覆盖整个存储产业链的繁荣景象正在展开。

在近日由深圳市存储器行业协会、北京大学集成电路学院主办第四届GMIF202全球存储产业创新峰会上,AI应用头部企业及存储原厂、主控/模组厂商、封测厂商设备/材料厂商、AI主平台厂商等产业链关键环节的代表性企业围绕存储技术趋势、AI应用落地与产业链协同三大方向,全面探讨与分享了AI时代下存储行业如何把握新增长周期机遇。本文将摘选行业专家以及数家代表性的存储企业的核心观点,来阐释AI技术本身如何作为一种创新工具赋能与驱动存储芯片产业的。

AI时代下“内存墙”瓶颈有待破解

随着AI技术的发展,全球数据量呈爆发式增长,传统计算架构正面临瓶颈。在传统计算架构(冯·诺依曼架构)下,分离的计算单元(CPU/GPU)和存储单元(内存/硬盘)已经无法适应AI深度学习的要求,正遭遇严重的“内存墙”瓶颈:计算单元的处理速度远远超过数据从存储器传输到计算单元的速度。计算单元常常处于“饥饿”的等待状态,系统性能瓶颈从“算得慢”转变为“取数慢”。

以图片AI生成为例,如果生成1张图片需要输出1280 token,人均每天生成5张图片需要约 6400 token/人/天,那么2亿活跃用户每天总token调用量大概需要1.28 × 1012 token/天。由此可见,AI应用全面爆发,正在把每日token调用量推向万亿级,而海量的token也会带来海量的容量和带宽需求。这是存储行业的新挑战,也是新机遇。

根据英伟达CFO FY26 Q2财报会议预测,2025年AI基础设施总支出预计达到约6千亿美元,到2023年将达到3万亿美元,预计将有5倍增长空间。其中,存储采购金额就达到6000亿美元。对此,佰维存储集团CEO何瀚在本次存储峰会上介绍,这一增长主要集中在算力、网络互联和存储三大领域,“相对2024年全球存储行业总规模1600亿美元,也将有3倍的市场增长空间。”

值得一提的是,华为最近发布的《智能世界2035》报告也对未来10年AI发展趋势作了预测,重点阐述了AI应用爆发将带来的算力与存储需求激增。该报告重点体现了6大核心预测数据:

一是到2035年网络将拥有超过9000亿个智能体。

二是到2035年超过85%的应用将融入人工智能。

三是AI应用价值/算力成本增长>10倍。

四是到2035年全社会的算力需求相比2025年将增长10万倍。

五是2035年AI相关的存储容量需求将比2025年增长500倍。

六是到2035年,超过70%的数据为“温数据”(即访问频率中等、需长期保存的数据)。

与此同时,我们也深刻认识到,在AI时代,数据不仅是模型训练的“燃料”,更是技术突破和产业竞争的核心驱动力。根据分析机构Yole的预测,预计到2030年,全球每年产生的数据总量达1000ZB(1YB),较2020年增长23倍;全球通用存力总量达到37ZB,较2020年增长10倍;AI相关存力总量占比63%,较2020年增长500倍。

英韧科技董事长吴子宁分析认为,这一增长主要源于两大方面:一是数据生成设备的指数级增长(手机、VR/AR、新能源汽车、物联网等);二是大模型将广泛应用于各行各业(金融、医疗、零售、交通等)。

这意味着在AI芯片的算力不断增长的同时,需要与之匹配的存储带宽才能发挥全部性能。因此,对于存储行业而言,主要挑战在于:一是带宽挑战,如何提供足够高的数据带宽,确保每个计算周期都有数据可处理;二是容量挑战,如何在不牺牲性能的前提下,提供足够大的存储容量来容纳巨型模型和数据集;三是功耗挑战,如何降低数据访问和传输的功耗,提升AI计算的整体能效比;四是延迟挑战,如何减少数据访问的延迟。

AI技术给存储带来什么影响?

为了突破算力瓶颈与“存储墙”制约,“以存代算”作为一种颠覆性技术成为最近几年各大高校机构和行业企业重点探索的方向。在本次存储峰会上,北京大学集成电路学院长聘教授孙广宇分享了面向大模型场景的层次化存算一体(Compute-in-Memory, CIM)处理技术方面的研究成果。他认为,存算一体技术已经进入实用阶段,通过将计算单元与存储单元融合,减少数据在两者之间搬运的距离,从而提升效率、降低功耗和延迟。

孙广宇介绍,目前存算一体技术根据存储介质和场景呈现出不同颗粒度的融合:一是细颗粒度:在更小单元上实现计算,突出算力和容量提升;二是粗颗粒度:在更大层级上整合,突出存储特性,但可能牺牲部分算力或容量。

其中,细粒度融合提供高密度、低功耗的计算能力,即在单元级或阵列级实现计算与存储深度融合,适合对能效敏感的场景,如移动设备、物联网终端、AI推理等,代表性企业有知存科技、后摩智能、Groq等。而粗粒度融合提供大容量、高带宽的访存能力和配套计算能力,即在芯片或芯粒级别集成计算逻辑,保留大容量存储优势,适用于需要高速数据处理的大模型训练、数据库加速、高性能计算等场景,代表性企业有SK海力士、三星、英伟达等。

孙广宇认为,对于端侧LLM场景,层次化异构的存算一体技术可有效平衡性能、功耗和成本,是未来发展方向。对此,他特别介绍了一个基于3D VNAND存算一体的端侧计算系统解决方案,其通过2.5D集成VNAND存内和DRAM近存,根据计算特点分配任务、优势互补支持大模型端侧推理的全链路算子,同时采用动态掩码激活方法,减少专家访问冲突自适应专家选择策略、权衡性能与精度显著提升MoE模型推理性能,以实现超大存储容量、高访问带宽,且支持矩阵-向量(GEMV)操作。

值得关注的是,存算一体技术相关的研究通过将AI推理过程中的矢量数据(如KVCache)从昂贵的DRAM和HBM显存迁移至大容量、高性价比的SSD介质,实现存储层从内存向SSD的战略扩展。

SSD的“爆火”是AI计算对高速、大容量、低功耗存储的迫切需求与SSD技术在容量、接口、成本上的快速突破以及AI服务器与云算力的规模化扩张共同作用的结果。这不仅显著降低首Token时延、提升推理吞吐量,并大幅优化端到端的推理成本,也大幅推升了行业对SSD需求。

这一发展趋势也催生“AI SSD”概念,而2025年也称之为AI SSD爆发元年。

2025年6月,存储原厂铠侠在投资人大会上推出“AI SSD”产品,该产品基于GPU巨头英伟达需求打造。8月,三星、海力士随后推出超高速颗粒产品,以匹配高性能SSD、极高IOPS,应对人工智能GPU直接调度数据的技术趋势。紧随其后,华为在上海正式发布三款 AISSD(EX560、SP560、LC560),突破传统存储在“内存墙”与“容量墙”上的瓶颈,为大模型训练、推理以及高并发AI工作负载提供更高的I/O性能和更大的容量。

根据Yole预测数据,随着数据量呈指数级增长,AI相关存储需求激增,推动全球企业级SSD市场规模从2024年的234亿美元快速增长至2028年的490亿美元,复合增速达16%。

此外,边缘/端侧AI也是本次峰会的热点话题之一。联发科客户项目总监王小兵表示,随着高级驾驶辅助系统(ADAS)、自动驾驶和智能座舱的发展,汽车对本地AI算力的需求呈指数级上升,到2025年,单个汽车平台的AI算力有望达到408 TOPS,接近数据中心级别。同时,智能家居、可穿戴设备、工业物联网等应用推动AIoT算力稳步提升。

不过,王小兵也指出,边缘AI(Edge AI)在算力增长过程中面临的功耗与散热挑战。随着芯片性能的快速提升,功耗和散热问题已成为制约边缘AI发展的关键瓶颈。相关数据显示,2020–2025年AI性能增长远超功耗效率提升:到2025年AI性能增长达2564%,而功耗效率仅提升377%。这将造成“算力爆炸”带来的热量积聚与功耗失控问题。

各大厂商应对存储技术演进的策略

在AI时代下,随着存储芯片的角色向“性能决定者”转变,各大厂商正针对存储行业面临的带宽、容量、功耗和延迟四大核心技术挑战,积极探寻差异化的解决方案与应对策略。

作为全球存储技术的领导者,三星电子积极布局AI时代的存储新架构,通过高带宽、高能效的内存技术革新,应对AI计算对数据处理的高要求。三星电子副总裁、Memory事业部首席技术官Kevin Yoon详细介绍了三星在下一代高密度、高速度内存领域的突破,以及如何通过优化数据处理流程,提高效率,降低能耗。他特别介绍了专为AI与图形密集型任务打造的下一代存储解决方案——GDDR7 24Gb显存。这款产品相比前代产品,整体性能显著增强,性能提升25%,单颗芯片容量达到24Gb,I/O速度高达40+Gbps,实现30%的能效优化。

在扩展与加速上,三星通过 CMM-D与CMM-DC技术的持续演进,拓展CMM(Compute Memory Module)技术路线图,巩固三星在内存与计算融合领域的长期领导地位。其中,在CMM-D 1.1概念验证阶段,三星推出 512GB CXL模块,同时发布 SM DK开源版本;在CMM-D 2.0生态开发与升级阶段,将重点引领生态系统构建,基于自研控制器和DRAM及软硬件专有IP构建全栈解决方案。三星还通过CXL 3.0内存解决方案,实现内存容量与带宽的灵活扩展,优化总体拥有成本(TCO),并构建面向未来的智能基础设施。此外,三星推出专为AI和高性能计算场景设计的Z-NAND存储解决方案,实现GPU直连存储,提升数据访问效率,减少GPU与存储之间的瓶颈。

为了应对边缘AI芯片的高功耗与散热难题,联发科从封装、架构到集成方式全面创新,推出“开放式封装”、“SBS方案”和“Chiplet异构集成”三大技术,实现高效散热、低功耗运行和高性能集成,推动智能汽车与AIoT设备的持续进化。而针对端侧AI带宽这一性能瓶颈,联发科提出“双管齐下”策略:一是减少AI带宽需求,即通过算法与架构创新,降低模型运行时对内存访问的依赖,从源头上解决带宽压力;二是增加带宽容量,采用新一代内存技术(如LPDDR5x、HBM)和接口标准,提升系统整体带宽上限,满足不断增长的数据传输需求。

英特尔则宣布2025年全系列处理器产品线正式进入AI PC时代,全面布局人工智能计算能力,覆盖从轻薄本到高性能台式机、游戏本及极致终端等多个场景。英特尔中国区应用设计部技术总监解海兵强调,在AI PC的发展中,英特尔硬件性能只是基础,真正的竞争力来自于软件支持与生态系统建设。通过三大支柱——先进处理器平台、高效工具链、开放合作生态,构建完整的AI PC解决方案。他还介绍,英特尔对通义千问Qwen3大模型进行深度优化,支持MoE与稠密模型在端侧高效运行,借助NPU实现Day 0大模型支持,结合动态稀疏注意力与开源生态(如Ollama),全面提升AI PC的本地AI能力,赋能多样化智能应用场景。

作为存储模组厂商,佰维存储正从传统“独立模组”升级为面向客户场景的系统级“存储解决方案”,用“介质×接口×封装”三项技术能力服务终端客户,即对对介质的特性理解和测试、主芯片接口和交互、容量堆叠和存算互联三大核心能力,实现存储与客户产品的深度融合。在新的AI存储策略下,佰维存储的系统级“存储解决方案”不断取得新的发展成绩。何瀚介绍,佰维存储智能眼镜业务增长趋势迅猛,今年第一季度公告预估2025年智能眼镜的业务至少要增长500%,“目前从实际进展来看,业务增长还要好于预期。“目前,佰维存储智能穿戴产品已进入Meta、小米、Rokid、小天才、Google、雷鸟创新等品牌供应链。

现场部分展品

总结

AI时代对存储技术提出了前所未有的严苛要求,也催生了一场存储“技术革命”。在AI技术驱动下,存储芯片不再是一个冰冷的“资源池”,正演进为一个有洞察、能预测、会自治的“智能数据平台”。

2025年,存储技术正处于一个关键的转折点,正与AI计算技术共同演进,走向更深层次的融合。不过,未来的突破将依赖于存算一体等颠覆性架构和新型存储介质的成熟,这将是决定下一阶段AI发展速度的关键因素。

责编:Jimmy.zhang

上一篇:
寻找AI的杀手级应用:机器人、智能驾驶和智能可穿戴设备
下一篇:
6家银行因数据安全管理问题被罚,涉股份行、外资、民营银行、城农商行
Title