2月26日,有海外网友爆料,DeepSeek V4轻量版“海狮”正在进行内测。
虽然这款模型尚未正式发布,但从目前流出的公开信息来看,它已经足够让行业重新审视国产大模型的竞争坐标。
今年春节前后,智谱、MiniMax、月之暗面几乎同时出手,掀起了一轮密集的模型迭代潮。
智谱推出GLM-5,主打Agent工程化和编程能力,强调“能执行长程任务的智能体”;MiniMax发布M2.5,延续多模态生产路线,在语音、音乐生成和内容创作上持续加码;月之暗面的Kimi K2.5则在OpenRouter上拿下了惊人的token调用量,一度登顶全球榜首。
这三家跑出了三条清晰的分化路径:智谱做深Agent、MiniMax做强生产、月之暗面做透应用。
而DeepSeek的路线则显得更加“底层”。
从2025年炸场至今,DeepSeek一直坚持把长文本推理和复杂任务能力做到极致,并不急于追逐多模态的炫技。
这次“海狮”轻量版的内测,延续了这一风格:虽然补上了多模态能力,但核心卖点依然是百万级上下文和深度逻辑推理。
这种“以不变应万变”的打法,反而让它在国内阵营中占据了独特的身位——当对手们纷纷向上层应用和垂直场景狂奔时,DeepSeek选择向下扎深基础模型的根基。
最值得玩味的变数,在于DeepSeek这次打破行业惯例的动作——未向英伟达和AMD提供V4预览,而是优先开放给华为等中国芯片供应商。
这在外媒看来,是中国试图“让美国硬件和模型在本土市场处于劣势”的一步棋。但从产业视角看,这更是一次务实的“软硬协同”卡位。
过去国产大模型长期依赖英伟达CUDA生态,训练和推理都在海外硬件上跑通,再反向移植到国产算力,性能和效率难免打折。
而DeepSeek的选择,意味着从底层算子优化到分布式推理,都将以昇腾等国产芯片为基准进行原生适配。如果这套“昇腾+DeepSeek”的组合跑通,将首次验证国产全栈AI技术的大规模商业化可行性。
当然,差距依然存在。美国头部实验室在“前沿能力的持续拉高”上仍然领先,这种领先不再是代际差,但依然有数月到一年的身位。
OpenAI和Anthropic的闭源模型依然是全球开发者仰望的天花板,英伟达的生态护城河短期内也难以撼动。
但正如行业观察者所言,中美AI已经跑出两条不同的主航道:美国追求“把AI变成全球统一工作界面”的能力跃迁,中国则走“开源权重+极致工程效率+快速产业扩散”的路线。DeepSeek恰好站在这条中国路径的轴心上。
“海狮”轻量版究竟何时正式亮相,目前尚无定论。但无论发布时间如何,这次内测已经让行业看清了一个趋势:DeepSeek不再满足于做“高性价比的模型提供商”,而是试图通过绑定国产算力、重构软硬适配关系,成为AI基础设施的定义者之一。
在这场从“拼参数”转向“拼落地”的竞赛中,谁能率先把模型能力嵌入真实的业务流程,谁才能拿到下一阶段的入场券。



