在AI芯片不断迭代的背景下,很多人习惯把注意力放在计算单元上。但一个容易被忽视的事实是:真正制约系统性能的,往往是存储器。现代芯片设计有一条不成文的铁律——计算能力可以靠堆核心来复制,但数据流动的瓶颈却很难绕开。未来AI芯片竞争的焦点,很可能不再是谁的算力更高,而是谁更擅长把数据“放得更近”。
受限于光刻掩膜版的物理尺寸,单颗芯片的面积始终存在上限。以Groq为代表的全SRAM路线,虽然访问速度极快,但存储容量严重受限,单颗芯片根本装不下千亿参数的大模型。反过来,如果完全依赖DRAM,容量虽然不再是问题,但带宽和延迟(也就是常说的“存储墙”)会让GPU的计算核心大量空转。这就解释了为什么今天最前沿的半导体技术,都在朝着先进封装(如CoWoS)和Chiplet(芯粒)方向快速演进。
通过大规模异构集成,利用极短的2.5D/3D互连线,把逻辑计算单元(配合SRAM)和高带宽内存模块(HBM,即3D堆叠的DRAM)像搭积木一样紧密组合,才能在“容量、速度、成本”这个铁三角中找到相对最优解。而要想彻底打破存储墙,在更高维度上重构计算与存储的关系,整个产业正在瞄向一个更具颠覆性的终极形态——软件定义晶上系统(Software Defined System-on-Wafer,SDSoW)。
传统硬件架构中,SRAM和DRAM之间的层级关系从出厂那一刻就固定了,非常僵硬。而软件定义晶上系统(SDSoW)的理念,是让底层硬件资源全面池化并解耦。面对不同AI工作负载的特性,系统可以在运行时通过软件动态重构数据通路和存储层级,智能且弹性地分配SRAM的极速响应资源与DRAM的海量吞吐能力。这种软硬协同的思路,彻底改变了以往“让数据追着算力跑”的被动局面,真正实现了计算与存储的无缝互联。