6 月 21 日,云C业智跃迁华为开发者大会 2025 期间,打破大模以“CloudMatrix384 昇腾 AI 云服务,型训算力聚变加快职业 AI 立异”为主题的推瓶高峰论坛顺畅举行 ,四位来自不同范畴的颈加 AI 先行者,与近 200 位开发者深度对话,快职从技能内核到场景落地 ,云C业智跃迁全面解析根据 CloudMatrix384 超节点的打破大模新一代昇腾 AI 云服务怎么破解 AI 算力 、运力、型训存力瓶颈 ,推瓶成为职业智能化跃迁的颈加中心引擎 。
高密、快职高速、云C业智跃迁高效,打破大模重建大模型年代的型训 AI 基础设施新标准。
当时,AI 大模型正以指数级速度进化 ,模型参数打破千亿、万亿级 ,传统算力架构的“算力墙”“通讯墙”“存储墙”已成为约束职业立异的中心痛点 。华为云公有云处理计划部 CTO 刘赫伟在峰会上指出:“大模型的爆发式开展,实质是对算力、运力 、存力的全维度应战。根据 CloudMatrix384 超节点的昇腾 AI 云服务 ,已成为打破算力、运力、存力瓶颈的 AI 基础设施新标准 。” 。
CloudMatrix384 昇腾 AI 云服务,经过“硬件重构 + 软件智能”的深度交融 ,打造出高密 、高速、高效的 AI-Native 基础设施:
・ 高密:超节点级联 ,构建“超级 AI 服务器” 。
CloudMatrix384 昇腾 AI 云服务立异性地将 384 颗昇腾 NPU 与 192 颗鲲鹏 CPU 经过 MatrixLink 高速网络全对等互联,形成单节点“超级 AI 服务器” ,更是支撑 432 个超节点级联,构建最高 16 万卡的超大集群 ,完全打破传统架构的规划约束 ,为大模型练习供给“无限算力池” 。
・ 高速 :纳秒级通讯,让算力“无损协同”。
其中心网络架构 MatrixLink 经过亲和性调度、协议重构等技能打破 ,完成三大功能腾跃 :卡间带宽高达 2.8Tb/s,节点内通讯时延降至纳秒级,节点间网络时延仅微秒级 。协作 PB 级虚拟显存、跨节点 / 集群 DRAM 池等立异规划 ,KV Cache 传输带宽提高 10 倍,输出每个 Token 的时延降至 50ms, 均匀单卡吞吐量跃升到 2300 Tokens / s 。
・ 高效:智能调度 ,开释算力“最大效能”。
根据底层强壮的算力、网络、存力