百度于5月9日发布了文心大模型5.1,这款新一代基础大模型的核心卖点不是能力暴涨,而是以极低的成本实现了接近一线闭源模型的性能。
文心5.1采用了百度自主研发的“多维弹性预训练”技术,这套技术的本质是“一次训练,生成多种规模模型”。
传统方法需要为不同规模的模型分别进行预训练,而文心5.0在单次训练中通过动态采样,同时优化大量不同参数规模的子模型,构建出一个“子模型矩阵”。
文心5.1从该矩阵中提取最优子网络,继承了5.0的知识储备,同时将总参数量压缩至约三分之一,激活参数量压缩至约二分之一,预训练成本仅为业界同规模模型的约6%。
成本大幅压降的背后是百度在工程层面的取舍,大模型的竞争正在从纯粹的参数竞赛转向效率竞赛。文心5.1的路线选择很明确,不再追求更大的参数量,而是在保持性能的前提下把训练成本打下来。
这种思路与DeepSeek此前的策略有相似之处,后者同样以高性价比模型在业内引发关注。
在能力表现上,文心5.1在多个基准测试中拿出了可量化的成绩。据百度公布的数据,其Agent能力在评估任务中超越了DeepSeek-V4-Pro;创意写作能力接近Gemini 3.1 Pro;推理能力在AIME26数学评测中得分99.6,仅次于Gemini 3.1 Pro。
在LMArena搜索榜上,文心5.1以1223分位列国内第一、全球第四,是该榜单中唯一上榜的国产模型。
搜索能力是文心5.1另一个被强调的差异化方向。所谓搜索能力,指的是模型对多源信息的快速检索、整合与生成能力,能够输出更具一致性和可靠性的回答。
百度将其定位于内容创作、智能助手、企业知识管理和Agent应用等场景,意在把大模型真正变成信息整合与处理的中枢,而非仅仅是对话工具。
目前文心5.1已在百度千帆模型广场和文心一言官网同步上线,面向企业用户与开发者开放。API定价方面,按量后付费模式下输入0.004元/千tokens、输出0.018元/千tokens。
更值得关注的是,5月13日至14日的Create2026百度AI开发者大会上,百度还将进一步透传文心大模型在产业应用方面的进展。
在整个国产大模型赛道加速分化的背景下,文心5.1的发布只是常态竞争的一个缩影。仅今年4月,阿里通义实验室就连续发布了多款模型,包括全模态交互模型Qwen3.5-Omni、图像生成模型Wan2.7-Image和千问系列Qwen3.6-Plus。
字节跳动的豆包则在5月初推出了分层订阅付费服务,月费从免费到500元人民币不等,开始在商业化路径上迈出关键一步。
而搅动市场的DeepSeek R2虽然一度被传将提前发布,但截至目前官方尚未确认具体时间表,这家以极致性价比著称的公司下一步会拿出什么,仍然是行业最大的悬念之一。
当成本不再是门槛,大模型的竞争会走向哪里?搜索场景会成为百度手里的那枚关键棋子吗?这些问题的答案,可能要等到下半年各家的真实落地数据出来才能看清。
一个更根本的追问也随之浮现,如果预训练成本可以压到这种程度,大模型的门槛到底还有多高?



