IT之家采访联发科:智能体无缝跨端协同,从这三个层面入手

报道介绍了联发科在 MDDC 2026 发布天玑 AI 智能体化引擎 2.0 与天玑 AI 开发套件 3.0,并公布与 OPPO、小米、传音等厂商在系统原生 Claw 的合作成果。联发科提出从三层面推进跨端智能体协同:在 IP 设计上统一 NPU 架构以复用于手机与车载等不同功耗场景;在软件上通过 NeuroPilot 实现“一次开发、多端部署”;在生态上推动统一指令集与行业标准,借助大模型降低系统间交互壁垒。文中还阐述了联发科在座舱平台(CX-1 400TOPS)、Always‑On 感知、双 NPU 与内存/带宽优化(Low Bit 压缩工具包、动态模型加载)等方面的技术布局,并讨论了车规安全边界、端云协作及“龙虾”框架对芯片调度与生态的影响。

5 月 15 日消息,5 月 13 日,联发科在上海举办了以“全域芯智能,体验新无界”为主题的天玑开发者大会 2026(MDDC 2026),在大会上,联发科正式发布天玑 AI 智能体化引擎 2.0,推出升级后的天玑 AI 开发套件 3.0,同时公布了与 OPPO、小米、传音等厂商合作的系统原生 Claw 成果。

IT之家作为受邀媒体也参加了本次 MDDC 2026,并在会后参与了联发科高管的群访活动。在采访中,联发科高管们针对行业普遍关注的跨端智能体协同、AI 定义汽车等核心问题,与大家进行了交流。

图片 5

在采访过程中,IT之家向联发科高管提问,当前行业正处于 AI 智能体大规模落地的关键节点,跨设备全域协同已成为公认的发展趋势,联发科如何通过移动平台、座舱平台等多产品线的协同,打通手机、汽车、边缘计算设备的智能体能力,又将如何解决跨端流转中延迟高、算力调度不均、生态不通等痛点。

对此,联发科高管回应称,公司从三个层面系统性推进跨域协同布局,首先在 IP 设计源头就充分考虑不同产品线的复用性,统一 NPU 架构的软硬件标准,确保同一 IP 能够适配从手机到汽车的不同功耗和算力需求,大幅降低技术迁移成本。

其次在软件层,联发科打造了统一的 NeuroPilot 开发平台,只要基于天玑品牌开发的应用,在手机端完成调试后即可快速移植到汽车、平板等其他终端,实现“一次开发,多端部署”。

而针对最复杂的生态层问题,联发科表示,不同终端的生态体系差异确实是当前最大的挑战,这需要整个行业共同努力。大模型的泛用性为解决这一问题提供了新思路,通过统一的自然语言指令集,不同系统间的交互壁垒正在被打破,就像近期火热的“龙虾”框架,其核心价值之一就是实现了跨系统的指令互通。

联发科正通过开发者大会持续推动生态伙伴共建统一标准,未来支付、导航、社交等基础服务将能够无缝接入天玑全产品线。

图片 2

同时,针对不同终端的特性,联发科也设计了差异化的协同模式,比如 AI 眼镜主要承担感知功能,复杂运算交由手机完成;而汽车与手机则更多是资讯和习惯的流转,用户上车后,手机会自动将行程、音乐偏好等数据同步给车机,车机则基于这些信息提供个性化服务。

除了IT之家的提问,其他媒体也围绕 AI、车载平台以及移动游戏领域的话题进行了提问。这里IT之家选择其中比较重点的问题和大家分享。

比如有媒体谈到了联发科座舱平台的问题,目前行业从“软件定义汽车”演进到“AI 定义汽车”,但汽车作为传统工业产品,在快速迭代中面临着质量与安全的双重挑战,AI 能否在安全性上带来更大提升?同时,联发科从移动终端切入汽车市场,相较于其他芯片厂商有哪些核心优势,又有哪些能力需要重新打造。

联发科高管表示,需要明确区分车内不同模块的安全属性,智驾和车辆控制模块与行车安全强相关,必须经过完整严格的验证流程,开发周期不会因为 AI 的引入而大幅缩短。而座舱智能体应用与安全的关联度较低,更多是为用户提供行程规划、信息查询、娱乐服务等功能,帮助驾驶员减少分心操作,间接提升行车安全。

这一领域的创新速度会非常快,尤其是国内新能源厂商,已经在积极探索各类座舱智能体应用,预计很快就会有大量落地成果。

关于联发科的核心优势,高管强调,手机行业是端侧 AI 技术发展最快的领域,每年都会有新的旗舰平台推出,对算力、能效、带宽的要求不断提升,这些技术积累可以直接迁移到汽车领域。

比如天玑旗舰座舱平台 CX-1 的 400TOPS 算力,以及低比特压缩、内存优化等技术,都源自手机端的成熟方案。而需要重新打造的主要是应用层的跨端协同体验,手机和汽车的使用场景差异巨大,如何让智能体在不同场景下都能提供自然流畅的服务,需要与车企、应用开发者共同探索,这也是联发科未来重点投入的方向。

图片 3

关于联发科率先提出的 Agentic AI 技术路线,有媒体询问其在这一领域的关键技术布局和生态优势。

联发科表示,AI 技术的核心价值在于落地到真实用户场景,而当前行业面临的主要挑战不是算力不足,而是如何将算力转化为用户可感知的体验。联发科重点布局了 Always-On 感知技术,让设备能够低功耗地持续感知周围环境和用户行为,同时优化系统架构,解决多应用同时调用 NPU 时的资源争抢问题。

在生态建设方面,联发科构建了从硬件到软件的完整体系,硬件层面提供适配智能体场景的双 NPU 和内存技术,工具链层面帮助开发者快速将大模型移植到端侧,系统层面推出天玑 AI 智能体化引擎 2.0,为终端厂商提供统一的智能体开发基础。

针对近期内存涨价对 AI 行业的影响,联发科高管坦言,内存和带宽已经成为端侧 AI 发展的主要瓶颈,当前手机端算力已经能够满足大部分应用需求,但大模型运行对内存的占用和带宽的消耗非常大。

为应对这一挑战,联发科推出了 Low Bit 压缩工具包,相同质量模型的压缩率提升可达 58%,同时结合内存硬件压缩、动态模型加载等技术,有效降低内存占用和带宽消耗。

虽然内存涨价给终端厂商带来了成本压力,但这只是暂时现象,当用户真正体验到 AI 智能体带来的价值后,会愿意为更好的体验买单。

同时,内存涨价也促使行业更理性地思考端云边界,避免盲目追求端侧大模型,而是根据产品定位合理分配端云算力。

此外,还有媒体关注到大模型在 AI 手机中的角色,以及近期火热的“龙虾”框架对联发科技术路线的影响。

联发科认为,大模型在 AI 手机中有两种主要发展方向,一种是谷歌等 OS 厂商从系统层面向上整合,另一种是豆包等应用厂商从应用层面向下渗透,两种方向都有广阔的发展空间,联发科与双方都保持着积极合作。

“龙虾”框架的出现加速了个人专属 AI 的落地进程,其将 Harness 与大模型分离的设计,让手机可以先利用强大的 CPU 跑好 Harness 部分,实现个人记忆、场景感知等核心功能,无需等待端侧大模型完全成熟。

这也影响了联发科的芯片规划,未来的天玑平台将更加注重 CPU 与 NPU 的协同调度,提升系统整体能效。

版权声明:本站文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明出处!

评论加载中...