报道称英特尔与 AMD 联合发布 x86 的人工智能计算扩展(ACE)白皮书,提出以外积(outer product)为核心的矩阵加速机制并与 AVX10 无缝集成,目标是显著提升矩阵乘法的计算密度、扩展性与能效。白皮书显示在相同输入向量条件下,ACE 的外积运算相比等效 AVX10 乘加运算计算密度提高约 16 倍,支持 INT8、OCP FP8、BF16 等主流低精度格式,覆盖从笔记本到超级计算机的场景,并在软件层面适配低精度 GEMM、NumPy/SciPy 及 PyTorch/TensorFlow 等生态。
4 月 30 日消息,科技媒体 Wccftech 昨日(4 月 29 日)发布博文,报道称英特尔和 AMD 联合发布人工智能计算扩展(ACE)白皮书,将其定位为 x86 架构的标准矩阵加速方案。
现有 AVX10 等 SIMD 扩展虽能处理矩阵运算,但在计算密度与扩展性上存在局限,ACE 正是为突破这一瓶颈而生。
ACE 作为 x86 指令集的关键扩展,核心目标是大幅提升矩阵乘法性能、扩展性与能效。矩阵乘法作为神经网络与大语言模型的核心计算模块,其效率直接决定 AI 工作负载的表现。
技术层面,ACE 引入基于外积运算(outer product operation)的矩阵加速机制,无缝集成 AVX10。白皮书数据显示,在消耗相同数量输入向量的前提下,ACE 外积运算的计算密度比等效的 AVX10 乘加运算(multiply-accumulate operation)高出 16 倍。

ACE 在底层计算方面,支持 INT8、OCP FP8、BF16 等主流 AI 数据格式,其设计兼顾灵活性与扩展性,旨在构建覆盖笔记本电脑到超级计算机的全场景矩阵加速框架。

在软件生态方面,ACE 集成低精度 GEMM 等深度学习和高性能计算库,并启动适配 NumPy、SciPy 等 Python 库以及 PyTorch、TensorFlow 等主流机器学习框架。
IT之家附上参考地址
- The AI Compute Extensions (ACE) for x86