人生倒计时
- 今日已经过去小时
- 这周已经过去天
- 本月已经过去天
- 今年已经过去个月
曾经,摩尔定律是推动芯片设计飞速变革的隐形推手,但如今随着物理和经济极限的逼近,它已渐渐不再适用。
尤其是随着AI计算浪潮的崛起,芯片设计面临着诸多挑战,迫切需要一场全新的深度变革,从多个层次重构,才能满足当下、适应未来。
凭借35年来在SoC芯片设计领域的丰富经验与深厚积累,Arm一直走在芯片技术革命的前沿,从移动芯片到再到定制芯片莫不如此。
近日,Arm解决方案工程部执行副总裁 Kevork Kechichian分享了Arm对于AI时代芯片设计变革的深度思考,并从多个角度提出了下一步的走向。
摩尔定律早在1965年就诞生了,尤其是在20世纪八九十年代,它持续且精准地指导着芯片和半导体行业的快速迭代,推动了芯片和其他组件的小型化、移动化,行业呈现出一片欣欣向荣的景象,这也为Arm的发展提供了广阔空间,使其开始大展拳脚。
从20世纪90年代中期的移动芯片组崛起,到21世纪初期SoC系统级芯片的繁荣,技术的演进历程推动了整个移动行业的繁荣发展,SoC也逐渐渗透至更多领域,甚至包括对性能、扩展性要求极高的数据中心。
AI时代来临,随着计算负载规模、复杂性的持续攀升,能源消耗、成本剧增的压力越来越大,这显然并非可持续发展之路,计算能效、定制化、平台化等正受到越来越高的重视。
能效无疑是其中最为核心的关键点。从芯片设计的角度来看,最主要的能耗来源有两个:计算和数据传输。此外,还需要对过程中所产生的热量进行冷却处理。
AI对于算力的渴求,导致芯片功耗呈现爆炸式增长趋势,比如NVIDIA最新的Blackwell B200 AI芯片,其功耗可能将达到1千瓦。
权威机构高盛也预测,AI将推动数据中心的电力消耗快速增长160%,为一座大型数据中心配备一座专门的发电厂并不是开玩笑。
更不要提这对于环境的破坏……
为此,整个行业都在进行各种新的探索尝试,从多角度解决能耗问题,包括但不限于:更高效的芯片设计、更深层次的架构与指令集创新、更小尺寸和更高效率的AI模型、云边端结合的AI执行,等等。
AI 驱动的网络威胁 - 来源:DarkTrace—2024 年 AI 网络安全状况报告
与此同时,安全威胁也在AI时代日益突出。
DarkTrace 2024年公布的一项调查报告,接近74%的受访者表示AI驱动的网络威胁已带来显著冲击,60%的受访者担心尚未做好充分准备应对这类威胁与攻击。
311研究所甚至提出,“我们已经到达了这样一个阶段:完全自主的智能体 AI 网络攻击能够自我进化、识别系统漏洞,并发动复杂攻击。”科幻中的场景已经开始成为现实。
在一个实际案例中,一种AI攻击不到2分钟就通过串联零日漏洞,攻破了军用级系统。
这意味着,如今的安全防御已不再仅仅是对抗传统恶意软件的问题,而是要为一个AI本身就是攻击者的未来做好准备。
为此,Arm和其他芯片企业在现代SoC中集成了越来越多层次的安全机制,协同工作抵御各种威胁,包括但不限于:嵌入式加密保护、机密计算架构(CCA)、硬件信任根(RoT)、安全飞地、可信赖执行环境(TEE)、安全内存管理单元(MMU)、内存扩展标记(MTE)、PSA认证、定制芯片安全标准,等等。
同时,行业正在不断加大对硬件级安全的投入,通过构建具备信任根和标准化安全机制的系统,抵御AI驱动型攻击。
可以说,AI正在深刻影响着芯片设计。由于AI负载的兴起,尤其是它的多样化、复杂化,正在从根本上改变芯片的设计方式,特别需要针对大规模并行处理、内存带宽优化的差异化架构。
具体来说,AI时代的芯片设计,迫切需要新型的专用加速器架构、内存子系统的创新与突破、能效的高度聚焦、封装与集成方式的演进。
Arm在报告中提出,未来的芯片,将具备几个鲜明的特点:不同技术与路径的深度集成、更成熟的电源管理技术、更紧密的生态系统协作、内存架构与集成方式的创新、面向AI及其他高性能计算需求的专用解决方案。
同时不容忽视的是,除了设计芯片服务AI,AI也在服务芯片设计,AI正成为芯片设计流程中不可或缺的一部分,比如机器学习(ML)技术正广泛应用于布局布线、能耗优化等各个设计环节。
由此,形成了一个有意思的反馈回路——AI正在协助设计用于运行AI工作负载的芯片本身。
基于此,Arm提出了五个清晰可辨的芯片设计大趋势.
一是协作深化:
现代芯片设计日益增加的复杂性,要求IP提供商、晶圆代工厂、封装厂、系统集成商之间,建立更加紧密的合作关系,因为没有一家公司能够独立完成所有工作。
二是聚焦系统:
芯片成功的关键,不再是单一组件的优化,而是对系统进行整体优化,包括计算、内存、电源管理、散热管理等各个方面。
三是标准化:
为了实现真正模块化的芯片设计,灵活、高效匹配不同的负载和场景,业界必须制定新的标准,包括芯粒接口、电源管理、散热管理等。
四是能耗感知设计:
从架构设计到具体落地,芯片设计的每一个环节,都必须以高能效为核心进行考量,不能单纯追求性能而无视能耗问题。
五是专用化:
差异化的工作负载,将催生更多专用架构,推动芯片设计走向多元化。
尤其是在架构设计方面,正因为它决定了一款芯片几乎所有方面的表现,包括性能、能效、安全、灵活性、发展潜力等等,所以更加至关重要,AI时代的芯片架构设计自然需要及时转变。
AI负载对计算的需求与以往截然不同。Arm坚信,只有通过异构计算,也就是CPU、GPU、加速器及网络等技术的共生协作,才能最大程度地满足AI驱动的算力增长需求,而Arm计算平台就是这样的一个行业优解。
异构计算方面,基于Arm架构的CPU,正在成为GPU、NPU、TPU等AI加速器的理想搭档,既能高效管理数据流和计算任务,又不会遇到瓶颈。
推理效率方面,大型AI模型的训练通常依赖高性能GPU,而对于端侧和数据中心的推理任务,Arm的高能效处理器就非常适合。
可扩展性方面,Arm架构支持CPU、GPU与专用加速器的无缝集成,可以组成优化到位的AI系统。
可以说,芯片架构如今已经成为决定AI系统能效、性能的关键要素。Arm正是凭借创新、定制、高能效的独特优势,成为行业的核心力量。
创新方面,Arm定期发布新CPU架构及支持功能,专注于推动定制芯片发展,确保与不断演进的AI工作负载需求保持同步。
定制化潜力方面,随着AI模型在复杂度和规模上的不断增长,Arm架构的灵活性使其能够针对特定AI任务打造专用解决方案。
能效方面,基于Arm架构处理器的高能效特性,使其在管理大规模AI部署的总拥有成本方面,展现出更高的价值。
当然,单纯的硬件是不能解决任何问题的,软件的协同至关重要,可以说AI发展的未来就在于软件与硬件的深度融合与协同发展。
比如AI框架之间的互操作性、AI模型向定制硬件的移植、AI开发中的标准化、各种新的数据类型的处理,以及各种开发工具的适配,都给行业带来了新的挑战。
Arm致力于支持能与所有主流AI框架广泛兼容的芯片解决方案,从而确保Arm计算平台能够与多样化的AI工具无缝集成,使开发者在拥有软件灵活性选择的同时,还能充分利用Arm架构芯片卓越的性能和能效。
对于AI软件的开发,Kevork也提出了四点关键建议:
一是善用广泛的通用工具,有助于简化开发流程,减少开发碎片化,从而加速结果落地、降低成本。
二是提供预构建的后端支持,为定制芯片提供“开箱即用”的兼容性,从而加快其落地。
三是保持对上游的贡献,积极开发开源框架,从而确保兼容性,避免技术发展停滞不
前。
四是紧跟框架演进步伐,随着AI框架的快速演进,保持与最新技术同步对于维持竞争力至关重要。
当下,半导体行业正处于一个重要的转变时刻。传统的摩尔定律和制造工艺缩放技术已经陷入瓶颈,定制芯片、芯粒等创新方案正焕发全新活力。
AI时代的到来,更是对整个芯片行业提出了全新的考验,需要上下游企业摒弃以往的传统观念,针对AI负载的突出特点,重新思考芯片的架构、性能、能效、安全、软件工具等各方面如何协同设计才能达到最佳成果。
正如Kevork所总结,计算的未来,尤其是AI的未来,取决于我们能否持续突破芯片技术的极限。
未来几年,半导体行业如何持续创新以适应AI需求,将变得至关重要。只有通过整个生态系统的协作,才有可能达成最理想的境界,既能释放AI的变革潜力,又能有效控制复杂度、能耗和成本,从而通过AI让我们的世界变得更加美好。