3月6日,深圳腾讯大厦楼下排起长队,近千人争当“养虾人”。
这些人中既有专业开发者,也有从香港、杭州专程赶来的AI爱好者,只为参加腾讯云的免费安装OpenClaw活动。
这款被戏称为“小龙虾”的开源AI智能体,因能真正“接管”电脑,如写周报、查网页、订餐厅、修复程序bug等,而在2026年初迅速走红,GitHub星标数三个月突破25万,甚至超过Linux。
但OpenClaw的安装门槛极高,涉及复杂的环境配置和模型接入,催生了火爆的付费安装市场:闲鱼、淘宝上远程安装服务从几十元到数百元不等,上门服务普遍在500元至1500元之间。
就在线下排队的同一天,腾讯QQ宣布开放官方接入通道,用户只需扫码登录、点击创建,即可生成能与OpenClaw联动的QQ机器人,单个账号最多可创建五个。
这意味着,用户可以在熟悉的聊天界面里,给五只“龙虾”分配不同任务,比如一只处理工作,一只管理生活,甚至给家人单独配置。QQ成为OpenClaw的轻量入口,将原本需要技术背景的部署,压缩成了几秒钟的点击。
1. 同一种“龙虾”,三种养法
面对OpenClaw掀起的浪潮,国内科技巨头们的布局策略呈现出鲜明分化。
小米在3月6日官宣移动端Agent“Xiaomi miclaw”开启小范围封测,走的是系统级深度整合路线。
这款基于小米MiMo大模型的产品,能让手机成为AI的工具。获取用户购票信息后,它会自动关联行程、查询天气、计算通勤时间,最后创建日程、设闹钟、语音播报等,整个过程贯穿“人、车、家”生态。
小米强调,Xiaomi miclaw获得系统级权限但严格保护隐私,发短信、创建日程等高敏操作每次执行前都需用户确认。
这背后是小米对AI即操作系统的判断,智能体应该嵌入底层,无处不在。
腾讯则选择了完全不同的路径。QQ的接入方案本质上是将OpenClaw封装进IM界面,用户与机器人对话,执行环境部署在云端或隔离服务器上。
腾讯云轻量应用服务器Lighthouse早已上线OpenClaw一键部署模板,从1月底开始保持每天一个版本迭代,将复杂操作转化为“零代码”体验。
腾讯的意图很明确,通过降低门槛抢占C端用户心智,同时推广自家的云服务器产品。有智能体领域创业者分析,腾讯免费安装活动的背后,是想让大众接触智能体,便于后续推广自有算力云服务。
云厂商和大模型公司则扎堆在“一键部署”赛道。阿里云1月底上线OpenClaw全套云服务,2月底又开源桌面Agent工具CoPaw。字节火山引擎、百度智能云、京东云相继推出类似方案。
大模型创业公司更是借势收割流量。月之暗面推出Kimi Claw,自动配置K2.5 Thinking模型;MiniMax上线MaxClaw,由M2.5模型驱动,推理成本仅为同类模型的1/7至1/20。
OpenRouter数据显示,3月以来大模型调用量排行榜中,MiniMax M2.5和Kimi K2.5分列第一、第二,合计调用量占前十大模型总量的约五分之一。
本地部署与云端方案的差异也逐渐清晰。上门安装从业者指出,本地部署能直接访问本地数据,自由选择和配置模型;云端部署则更安全,大厂会帮助防护网络攻击,文件系统隔离,但无法直接操作本地文件。
对于轻量需求,云服务足够;对于高强度或复杂需求,本地部署更有优势。两种方案各取所需,也各自适配不同用户群体。
2.智能体机遇、挑战并存
OpenClaw的爆火,本质上是AI从“动嘴”到“动手”的质变,但安全性始终是悬顶之剑。安全机构报告,有超过13.5万个OpenClaw实例暴露在公网,存在严重漏洞风险。
从行业视角看,OpenClaw的走红和厂商的快速跟进,标志着AI竞赛正从“模型能力”转向“应用落地”。
IDC预测,全球AI Agent市场规模将从2024年的51亿美元激增至2027年的800亿美元;中国市场规模年复合增长率预计超60%,到2031年达1716.5亿元。两会政府工作报告首次将“智能体”列入政策核心,提出到2027年推出1000个高水平工业智能体。
政策加码叠加产业裂变,Token消耗将指数级增长。IDC预计,年度Token消耗将从2025年的0.0005 PetaTokens暴增至2030年的152,667 PetaTokens,年复合增长率高达3418%。
Token通胀的背后,是算力需求的大幅扩容,也是产业链价值的重构。
中游大模型层将出现分化,开源模型蚕食中低端市场,闭源模型需不断突破上限;传统SaaS软件可能降为Agent背后的工具及数据库。
而谁能在“执行力”与“安全性”之间找到平衡,谁就能在入口之争中卡住身位。
QQ给每个账号最多养五只“龙虾”的设定,恰好暴露了当下的试探心态。厂商们不确定用户需要几个AI助理,也不确定智能体最终长成什么形态。
先给你五个名额,自己去分吧,这既是对场景的探索,也是对安全边界的保守。毕竟,在AI智能体真正规模化的前夜,步子迈得太大,容易踩空。



