3月4日,Arm控股有限公司宣布与阿里巴巴淘天集团的轻量级深度学习框架MNN展开新的合作。通过Arm KleidiAI的集成,多模态人工智能(AI)工作负载能够在搭载Arm CPU的移动设备上,借助阿里巴巴定制的通义千问Qwen2-VL-2B-Instruct模型运行。这个版本的通义千问模型特别针对端侧设备的图像理解和文本到图像的推理功能进行了优化,并支持多种语言的多模态生成。
在MWC 2025展会上,Arm展示了这次合作的成果。演示表明,该模型能够理解视觉和文本输入的不同组合,并能对图像内容进行详细说明。此次演示是在搭载MediaTek天玑9400移动系统芯片(SoC)的智能手机上完成的。
Arm终端事业部产品管理高级总监Stefan Rosinger表示:“我们正处于AI革命的前沿,目睹了多模态AI模型的发展。这些模型可以处理和理解多种数据类型,如文本、图像、音频、视频和传感器数据。然而,在端侧设备上部署这些复杂的多模态模型面临不少挑战,因为硬件受限于电力和内存。”
Arm KleidiAI成为应对这些挑战的有效解决方案。它为运行在Arm CPU上的所有AI推理工作提供了无缝的性能优化。KleidiAI是一套轻量级且高性能的开源Arm例程,专为AI加速而设计,已被整合到主流的端侧AI框架中,包括ExecuTorch、Llama.cpp、LiteRT(通过XNNPACK)和MediaPipe。这使得数百万开发者能够自动获得AI性能的显著提升,而无需额外操作。
通过KleidiAI与MNN的集成,Arm和MNN团队测试了Qwen2-VL-2B-Instruct模型的加速性能。结果显示,在端侧的关键AI多模态应用场景中,该模型的运行和响应速度均有提升。这一改进有望为阿里巴巴旗下的多个客户导向型应用带来更好的用户体验。
这些用例的响应速度提升主要归功于模型预填充性能提高了57%,以及解码性能提高了28%。此外,KleidiAI集成还能降低多模态工作负载的整体计算成本,从而提高端侧设备上AI工作的效率。数百万使用包括MNN框架在内的热门AI框架运行应用程序与工作负载的开发者,将在边缘设备上体验到这些性能和效率的提升。