马斯克在社交媒体上围观一款AI编剧工具时可能没想到,他轻点转发带来的不仅是流量,更意外点亮了两个看似无关领域——DRAM内存芯片与AI创意工具之间的隐秘关联-8。
阿里达摩院研发的存算一体芯片采用了基于DRAM的3D键合堆叠技术,在特定AI场景中性能提升10倍以上-1。

而几乎同时期,一款名为Dramatron的AI编剧工具因能够根据一句话生成完整剧本而引发关注-3。这两者看似毫无关联,却在AI发展道路上意外交汇。

当你惊叹于AI生成的一段流畅文字或一幅精美图像时,或许不会想到,背后支撑这一奇迹的是一块小小的DRAM芯片。
DRAM,这个听起来技术性十足的名词,实际上是动态随机存取存储器的简称。在计算机领域,它的角色类似于人类工作时的临时记忆区。
在传统的冯·诺依曼架构中,处理器和内存是分离的,数据需要在两者之间不断搬运-1。这就好比一个建筑师在设计房屋时,每画一笔都要跑到远处的书架查阅资料,效率自然低下。
当前AI计算面临的最大瓶颈之一就是“内存墙”问题-2。虽然计算性能约每两年增长三倍,但内存带宽仅增长1.6倍-2。
这意味着昂贵的处理器经常处于“饥饿”状态,等待着数据从内存中缓缓而来。
AI模型的复杂度和规模正呈指数级增长,这对内存提出了前所未有的高要求。据行业分析,到2025年底,推理工作负载预计将占据所有AI工作负载的85%以上-2。
每一个聊天机器人的回应、每一次推荐系统的推送,都是大规模重复的推理任务,都受到内存吞吐量的限制。
面对这一挑战,技术创新者开始寻找突破口。达摩院研发的存算一体AI芯片正是这一探索的成果。他们将存储单元和计算单元融合在同一芯片中-1。
这种设计类似于人脑的工作方式,神经元既存储信息又进行处理,大大减少了数据搬运的需求-6。实际测试表明,在推荐系统应用中,相比传统CPU计算系统,这款芯片的性能提升10倍以上,能效提升超过300倍-1。
与此同时,另一条技术路径也在同步推进。D-Matrix公司推出了基于3D动态随机存取存储器技术的新方案,承诺将推理工作负载的性能提升“数个数量级”-2。
他们的Raptor架构集成了高吞吐量3D DRAM,目标是在运行推理工作负载时实现内存带宽和能效各10倍的提升-2。
有趣的是,就在硬件工程师努力突破“内存墙”时,软件开发者也在探索AI的创作边界。DeepMind推出的Dramatron,展示了AI在创意写作领域的潜力-3。
这款工具只需要用户提供一个“一句话大纲”,就能生成包括标题、人物设定、情节、场景和对话的完整剧本-3。
一位体验者输入“詹姆斯发现自己是恶魔,将被迫进行驱魔仪式”的大纲,Dramatron便创作出题为《内心的恶魔》的剧本-3。
故事中,詹姆斯的恋人在他去世后饱受折磨,最终发现詹姆斯以恶魔形态活在自己体内-3。这种情节转折展现了AI也能处理复杂的文学意象。
Dramatron的工作方式揭示了现代AI创作的秘密:它实际上是一个指挥大语言模型的“指挥家”,通过逻辑严密的提示词链,引导模型生成结构严谨的内容-8。
研究人员发现,专业编剧在使用Dramatron时,对AI生成的情节大纲改动最少,而更倾向于调整人物角色描述和场景构建-8。
当我们谈论“DRAM AI”时,实际上是在讨论DRAM技术如何适应AI时代的需求演变。传统的DRAM制造已经面临物理极限的挑战,必须从2D平面结构转向3D立体架构-10。
三大HBM(高带宽内存)制造商已经确定,将在HBM5 20hi世代使用混合键合技术-10。这种技术通过不配置凸块的设计,可以容纳更多堆叠层数,同时改善芯片的散热问题-10。
从制造难度来看,DRAM技术远比许多人想象的要复杂。业内有一个残酷的共识:DRAM的制造难度是NAND闪存的数倍-5。
如果把NAND制造比作盖高楼,那么DRAM制造就更像是在米粒上雕刻精密机械表-5。这种技术壁垒也解释了为什么全球DRAM市场几乎被三星、SK海力士和美光三家巨头垄断-5。
当我们将目光从云端数据中心转向日常设备,DRAM对AI的重要性更加凸显。当前,AI在终端设备上运行的主要瓶颈不再是算力,而是内存带宽-10。
以高通骁龙8GEN3为例,其NPU(神经网络处理器)算力约为45 TOPs,而内存带宽仅为67 GB/s-10。运行一个7B参数的大模型时,内存带宽限制明显成为瓶颈-10。
令人兴奋的是,通过3D DRAM与NPU的异构集成,这一瓶颈有望被突破。研究显示,如果将内存带宽提升至800 GB/s,同样的高通骁龙8GEN3在运行7B模型时,内存限制将从4.8 token/s提升至57 token/s-10。
这意味着我们日常使用的手机、平板和笔记本电脑将能够运行更强大的AI模型,实现真正的“泛在智能”。
随着DRAM技术从2D走向3D堆叠,内存带宽的指数级增长正将AI从云端数据中心解放出来-10。当这些技术完全成熟时,每个人口袋里的手机都可能具备今天服务器级别的AI能力。
那个看似陌生的术语“DRAM AI”,最终可能成为像“智能手机”一样寻常的存在,无声地支撑起日常生活中每一个智能瞬间。
网友“芯片小白”提问:看了文章还是有点晕,DRAM和AI到底有啥直接关系?能不能用最直白的话解释一下?
当然可以!咱们用一个简单的比方来解释:想象一下,AI就像一个超级聪明的大厨,DRAM就是他面前的切菜板。不管大厨手艺多高超,如果切菜板太小(内存容量不足)或者拿菜放菜太慢(内存带宽不够),他也做不出好菜来。
现在AI模型越来越复杂,好比菜谱越来越难,需要的食材(数据)越来越多。传统的“切菜板”已经跟不上了,大厨老是得等食材,效率就低。所以研究人员才要搞“存算一体芯片”-1,就像是把切菜板和灶台合二为一,大厨切完直接下锅,省去了来回搬运的时间。
还有那个“3D DRAM”-2,就像是把平铺的切菜板改成立体多层的,同样面积能放更多食材,大厨一伸手就能拿到,不用到处找了。
网友“科技观察者”提问:文章提到Dramatron这个AI编剧工具-3,它和DRAM技术有关系吗?还是纯粹名字上的巧合?
这个问题很有意思!Dramatron和DRAM技术本身没有直接关系,这确实更像是一个命名上的巧合。Dramatron这个名字应该是从“drama”(戏剧)和“tron”(装置)组合而来的,意思是“戏剧生成装置”。
不过,它们之间有一个有趣的间接联系:像Dramatron这样的高级AI工具,运行时确实需要强大的内存支持。特别是当它生成长篇连贯的剧本时,需要在内存中保持大量的上下文信息-8。
从更广的视角看,所有AI应用的发展都离不开底层硬件技术的进步。Dramatron展示了AI在创意领域的潜力,而要让它(以及更强大的后续工具)变得更快、更高效、更普及,就离不开DRAM技术的突破。未来可能会有更多“Dramatron们”涌现,它们共同构成了AI普及的上层建筑,而DRAM等技术则是支撑这一切的基础设施。
网友“投资爱好者”提问:从投资角度看,DRAM在AI时代的前景如何?相关技术突破会带来哪些产业机会?
从投资视角看,DRAM在AI时代的前景相当广阔。有几个关键点值得关注:
一是需求端的爆发式增长。随着AI从训练转向推理为主-2,对内存带宽和容量的需求将持续攀升。推理工作负载预计将占所有AI工作负载的85%以上,每个查询、每个推荐都需要内存支持-2。
二是技术壁垒带来的高门槛。DRAM制造难度极高-5,全球市场呈寡头垄断格局-5,这意味着头部企业的护城河很深。特别是能够生产HBM(高带宽内存)的厂商,因为HBM本质上是多层DRAM芯片的垂直堆叠-5,技术门槛更高。
三是端侧AI的新机遇。随着3D DRAM与NPU的异构集成技术成熟-10,手机等终端设备将能运行更强大的AI模型,这可能催生一波新的硬件升级周期。国内外面向端侧AI的3D DRAM+NPU解决方案正在兴起-10,相关产业链值得关注。
当然也要注意风险,如AI应用渗透不及预期、3D DRAM技术发展速度等变量-10。但总体来看,在AI驱动的存储超级周期中-5,DRAM作为“隐形皇冠”-5,其战略价值可能会持续凸显。