Meta 和高通合作让大模型在手机上运行


Meta 和高通合作让社交巨人的新模型 Llama 2 能在使用高通芯片的手机和 PC 上运行。至今为止,由于 AI 模型对算力和数据的巨大需求,大模型通常是在服务器集群和英伟达数据中心 GPU 上运行,高通想让大模型不仅仅是在云端,而是能在本地在边缘设备上运行,降低运行 AI 模型的成本。Meta 的第一代大模型 Llama 已有在手机上运行的版本,但性能受到很大限制。


© 版权声明
文章版权归作者所有,未经允许请勿转载。

前一篇:

后一篇:

发表回复