DeepSeek V4发布前奏?已适配华为AI芯片

  作者:陈玲丽 时间:2026-04-09来源:电子产品世界

4月8日凌晨,DeepSeek迎来重要更新,在最新版本中DeepSeek输入框上方新增“快速模式”与“专家模式”。系统提示:快速模式适合日常对话,即时响应;专家模式擅长复杂问题,高峰需等待。

不过,目前新版本还处于灰度测试中,并不是全量版本,可以在对话框里输入“专家模式”,就会自动启用新版本。

640.jpeg

当然,将用户自然分流至两个入口,这本身也是一种算力调度策略,有助于实现限额限流、缓解峰值压力。

根据当前测试与网友分析:快速模式背后可能调用了一个更轻量的V4 Lite模型;专家模式则疑似路由至更大、更强的模型,有猜测认为可能是DeepSeek V4正式版的某个形态。

值得注意的是,从2026年2月至今,DeepSeek错过了多个发布窗口,至今V4仍未揭开神秘面纱。上月末,DeepSeek面向C端的产品服务多次中断,或与模型迭代过程中进行灰度测试有关。业内猜测这次对话界面更新或许是V4版本发布的前奏,DeepSeek V4正式版将在本月发布,届时仍可能保持开源领域最强性能。

DeepSeek V4.0等新一代模型有望将Engram融入已成熟的DSA+MoE架构,通过分层存储关键常用信息实现Transformer架构中注意力层计算量的指数级下降,进而实现超长上下文处理,提升模型效率的同时精进代码、Agent能力,补齐多模态短板。

DeepSeek V4全面换装华为芯片

数据显示,国内日均AI Token调用量,从2024年初的1000亿次,飙升至2026年3月的140万亿次,一年多时间增长超1000倍,海量算力需求仅靠进口芯片已无法满足。同时,地方政策持续发力,上海明确新建智算中心国产芯片占比超50%,北京提出2027年实现智算中心建设100%自主可控,为国产算力发展提供政策助力。

与以往AI模型开发优先适配美系芯片的惯例不同,DeepSeek此次将国产芯片厂商置于优先位置。据美国科技媒体The Information2026年4月报道,DeepSeek团队为完成适配优化,适当调整了发布节奏,过去数月与华为密切合作,对模型底层代码进行了大量调整与重写 —— 将新一代旗舰模型DeepSeek V4的底层代码从英伟达的CUDA框架,全面迁移到华为自研的CANN框架,把昇腾芯片作为主力算力底座。

640-5.jpeg

几乎同一时期,3月21日,华为发布搭载全新昇腾950PR处理器的AI加速卡Atlas 350,单卡FP4精度算力达1.56P,为英伟达H20的2.87倍,加速卡内存带宽达1.4TB/s,是国内率先实现FP4低精度推理规模化支持的产品。此外,该卡搭载华为自主研发的灵衢互联协议,可实现数千张芯片高效集群互联,有效破解传统AI集群规模扩大后算力利用率下滑的行业痛点。

华为依托昇腾芯片+CANN框架+集群技术,打造完整算力生态,通过高效互联技术实现多芯片集群协同,在万卡级智算中心场景中,实测故障率低至0.3‰、训练线性度达93.12%,弥补单芯片部分性能差距,满足大模型训练与推理需求。

昇腾950PR凭借优异性能,阿里巴巴、字节跳动、腾讯等科技巨头,为应对DeepSeek V4等大模型上线需求,已提前下达数十万颗订单。

DeepSeek V4全面迁移昇腾芯片,标志着中国人工智能产业在算力自主化道路上取得实质性突破,将进一步推动全球AI技术竞争格局转变。这一系列“换芯”与产品迭代动作,意味着国产AI芯片正加速从“可用”迈向“好用”,行业竞争也从单纯拼单卡算力的硬件比拼,升级为“芯片+系统+软件”的全生态较量。

曾几何时,全球AI芯片市场被英伟达一家独大,国产AI芯片长期处于技术落后、生态空白的困境,高端算力完全依赖进口。但短短两年时间,市场格局已迎来明显改写:据市场研究机构IDC 2026年3月最新数据,2025年中国云端AI加速器市场中,本土GPU及AI芯片厂商市场份额占比达到近41%,曾经占据主导地位的英伟达市场份额较峰值大幅缩减。

虽然国产AI芯片实现突破性进展,但核心短板依然不容忽视:高端训练芯片整体性能与英伟达顶尖产品仍有差距,软件生态完善度、开发工具链成熟度有待提升,高端封装、高带宽内存(HBM)、核心EDA工具等产业链环节,仍未完全摆脱海外依赖,实现全产业链自主化仍需长期攻坚。

关键词: DeepSeek 华为 AI 芯片

加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW

或用微信扫描左侧二维码

相关文章

查看电脑版