起源:华为推算(企业公家号)
2026 年 4 月 24 日,DeepSeek V4-Pro 和 DeepSeek V4-Flash 正式颁布并开源,模型高低文处置长杜咨原有 128K 显著扩大至 1M,实现近 10 倍容量提升。模型初次增长 KV Cache 滑窗和压缩算法,大幅削减 Attention 推算和访存开销,并通过架构创新更好地支持 Agent 与 Coding 场景。
昇腾一向同步支持 DeepSeek 系列模型,本次通过双方芯模技术缜密协同,实现昇腾超节点全系列产品支持 DeepSeek V4 系列模型。昇腾 950 通过融合 kernel 和多流并行技术降低推算开销,结合多种量化算法,实现高吞吐、低时延的推理部署;昇腾 A3 超节点系列产品全面适配,同时提供基于 A3 超节点的训练参考实现,方便用户急剧微调。
基于昇腾 950 底层架构三大升级,实现极致机能阐发:
· 原生精度加快:全面支持 FP8、MXFP8、MXFP4 等体式,保障精度同时内存占用降低 50%+,推算能力翻倍。
· 稀少访存优化:针对 MoE 模型离散访存特点,提升硬件级稀少访存能力,解决专家路由带宽瓶颈。
· Vector 与 Cube 共享 Memory:创新存储架构,解除大量片上数据搬运开销,显著降低端到端时延。
机能实测:
· DeepSeek V4-Pro:8K 输入场景,TPOT 约 20ms,单卡 Decode 吞吐 4700TPS。
· DeepSeek V4-Flash:8K 输入场景,TPOT 约 10ms,单卡 Decode 吞吐 1600TPS。
同时,昇腾结合界说超节点架构,实现低成本、高扩大、万卡级集群规模,支持 4K–1M 序列长度全领域低延长高吞吐,并可基于 NAND SSU 实现超低成本、超大容量 KV Cache,支持长序列利用。
Atlas 900 A3 SuperPoD 液冷超节点及 Atlas 800 A3 风冷超节点选取平等架构、全局内存统一编址,点对点互联带宽达 784GB/s,提供 32 到 384 多种规格,是国内唯一成熟规模商用的超节点产品,可满足互联网、运营商、金融等行业大模型推理的极致机能需要。
基于昇腾 A3 64 卡超节点结合大 EP 模式部署,在 vLLM 引擎下,DeepSeek V4-Flash 模型可实现单卡 Decode 吞吐 2000+TPS,机能持续提升;同时已支持 DeepSeek V4-Pro 推理部署。
为解决自界说算子开发门槛高、周期长的痛点,昇腾 CANN 推出 PyPTO 编程范式:
· 高效算子开发:提供 Python API,自动实现流水编排与内存治理,DeepSeek V4 新一代模型算子开发周期缩短至天级。
· 高机能 Kernel 自动天生:针对 Attention、Compressor、mHC 等复杂算子自动天生优化 Kernel,缩短算法验证到部署周期。
· PTO ISA 虚构指令集跨代兼容:统一指令接口,实现一套代码多代芯片兼容,借助毕昇编译器实现更优融合。
TileLang-Ascend 针对昇腾平台深杜着化,提供 AscendC 基础指令和 PTO AS 两种对接档次,有关 DeepSeek V4 模型实现已在 TileAI 开源社区颁布。
目前,昇腾 A2、A3 及 950 全系列产品已实现 DeepSeek V4-Flash、DeepSeek V4-Pro 适配。昇腾将持续以极致算力与盛开生态,为大模型产业提供高效支持,与客户及开发者携手推动 AI 产业繁华。
版权申明:本文转载自华为推算官方公家号,仅用于行业资讯互换与技术分享,不代表本公司态度,不用于任何贸易用处。版权归原作者及原出处所有,如有侵权,请联系9001cc金沙实时删除。
原文链接:https://mp.weixin.qq.com/s/i9P0B0FLEBFg2jhOkxSpQg
下一条造就智能原生新业态新模式2026.04.10
_1757660066.png)
4008-770-775