“悄悄发育”的华为AI大招解析
华为开发者大会HDC2025关键亮点
2025年6月20日下午,华为开发者大会HDC2025开幕,AI成为主题演讲的绝对主角。华为云推出新一代升腾AI云服务和全面升级的盘古大模型5.5,华为终端首次推出鸿蒙智能体框架,目标是构建端侧智能体生态。
盘古大模型5.5的升级情况
自然语言处理NLP大模型升级
模型类型丰富:全新的718B深度思考模型由256个专家组成MoE大模型,在知识推理、工具调用、数学等关键能力上显著增强。此外,还推出了72B的ProMoE大模型以及更轻量的7B级小模型盘古Embedding。
关键技术创新:采用自适应快慢思考合一技术,模型能根据问题难度自动切换模式,简单问题快速回答,复杂问题深度思考。同时推出深度研究DeepDiver,通过长链难题合成、渐进式奖励等关键技术,在网页搜索、常识性问答等应用上执行效率高,如5分钟内完成超过10跳的复杂问答、生成万字以上的专业调研报告等。
跑分成绩突出:ProMoE模型首次参与第三方跑分测试,在五月底SuperCLUE榜单上,在知识推理、工具调用、数学、对话、代码、自然科学六大领域,跑分成绩接近甚至在部分领域超过了GPT、Gemini、Deepseek的顶尖模型。
其他模型升级
除NLP外,盘古的预测大模型、科学计算大模型、视觉CV大模型也都迎来升级。华为云还发布了全新基于盘古多模态大模型的世界模型,可生成数字物理空间,用于智能驾驶、具身智能机器人的训练。
新一代升腾AI云服务优势
超节点架构特点
基于CloudMatrix384超节点,超节点架构能更好地支持混合多专家MoE大模型的推理,实现“一卡一专家”,一个超节点可支持384个专家并行推理,提升效率;还能支持“一卡一算子任务”,灵活分配资源,提升任务并行处理,减少等待,将算力有效使用率(MFU)提升50%以上。
集群与资源分配能力
对于万亿、十万亿参数的大模型训练任务,在云数据中心能将432个超节点级联成最高16万卡的超大集群。同时支持训推算力一体部署,如“日推夜训”,训推算力可灵活分配,帮助客户资源使用最优。
客户服务情况
目前升腾AI云服务已为包括科大讯飞、新浪、硅基流动、面壁智能、中科院、360等超过1300家客户提供算力服务。
鸿蒙智能体框架意义
构建C端智能生态
面向C端用户,智能体是构建生态的关键。鸿蒙智能体框架(HMAF)构建在鸿蒙系统和华为AI底座上,是一整套AI生态系统。
分发与开发便利
开发者做出的智能体既可以通过鸿蒙系统分发,也能集成到鸿蒙AI助手小艺里。同时,鸿蒙智能给开发者提供了50多个鸿蒙系统插件和多种开发模式,开放了小艺对话、小艺建议等240多个标准意图框架和11项核心语音识别AI能力,开发者无需自己组建底层算法团队或投入大笔研发资金,就能开发出智能应用或智能体。
华为AI发展的重要意义
过去两年,高端AI芯片“卡脖子”让华为在AI浪潮中有些被动,但经过沉淀与发展,随着自研AI算力体系进步,盘古大模型核心能力逐步追近全球第一梯队玩家。华为通过鸿蒙、盘古体系将大模型能力融入千行百业应用,推动用户体验与行业生产力的智能化升级。并且盘古证明了基于全华为自研的AI服务器,可以训练出同等水平的大模型,意味着国产打破AI算力垄断迈出重要一步