英伟达于4月20日发布面向Jetson平台的内存优化指南,覆盖基础软件、设备树/内核、推理流水线和模型量化等多层面手段。基础软件层通过禁用图形桌面与非必要服务可释放近900MB;对Orin系列调整Carveout和利用IOMMU/SWIOTLB可回收数十MB;将容器切换为裸机、Python迁移到C++、在DeepStream中禁用Tiler与OSD并使用FakeSink可额外节省约412MB。此外,模型量化带来最大收益,例如将Qwen3 8B从FP16量化到W4A16约节省10GB,Qwen3 4B从BF16量化到INT4约节省5.6GB。文章并给出实际案例:在Orin Nano 8GB上用4位量化运行Cosmos-Reason2-2B并本地部署语音模块,实现无云端依赖的端侧多模态AI。
4 月 21 日消息,英伟达昨日(4 月 20 日)发布博文,针对当前边缘设备内存受限情况,通过架构优化 NVIDIA Jetson 平台,最高可释放约 12 GB 内存,帮助开发者优化 AI 模型部署。
在基础软件层,英伟达表示禁用图形桌面界面,最高可以释放 865 MB 内存,关闭非必要网络服务可再节省约 32 MB。

针对 Jetson Orin 系列,开发者可调整 Carveout 保留区域,在无需显示或摄像头功能的场景下,通过修改设备树配置回收约 68 MB 物理内存。内核层优化方面,利用硬件 IOMMU 特性调整 SWIOTLB 参数,可减少不必要的内存预留。
推理流水线层面,英伟达表示将应用从容器切换至裸机部署可节省 70 MB 内存,从 Python 迁移至 C++ 可再释放 84 MB。在 DeepStream 框架中禁用 Tiler 和 OSD 等可视化组件并使用 FakeSink,可额外节省 258 MB 内存,合计优化幅度达 412 MB。
此外通过量化模型,可以大幅降低内存占用,例如将 Qwen3 8B 模型从 FP16 量化至 W4A16 格式,可节省约 10 GB 内存;Qwen3 4B 模型从 BF16 量化至 INT4,可节省约 5.6 GB。

在实际运行案例方面,Reachy Mini 机器人项目在 Jetson Orin Nano 8GB 设备上,通过 4 位量化技术运行 Cosmos-Reason2-2B 视觉语言模型,并协同部署语音识别与合成模块,成功实现了无云端依赖的端侧多模态 AI 应用。