华为开源Omni-Infer加速MoE模型推理,推动AI生态发展
2025-07-03

华
华为手机
正面
查看报告
华为开源Omni-Infer项目,专注于超大规模MoE模型推理优化,支持昇腾硬件,提供推理框架与加速套件。该项目实现PD分离部署、系统级优化、智能调度及资源分配,提升吞吐量与低延迟性能。已获智源研究院、上海人工智能实验室等机构支持,推动国内AI开源生态建设,并主动适配国内开源项目形成多方共赢。


本页面内容由AI提炼生成,无法确保完全真实准确,不代表希财网官方立场,不构成投资建议。如需阅读详细说明,请点击此处
