作者 | 范亮
编辑 | 张帆
2025年11月,OpenClaw首次在GitHub上公开发布。至2026年春节前夕,该项目已在各大媒体中崭露头角,引发了行业的广泛关注。春节过后,OpenClaw迅速破圈,“装龙虾”“养龙虾”迅速演变为全民热议的话题。
相较于传统认知中依赖既定提示词和框架进行“机械运作”的AI Agent,OpenClaw展现出更高的自主性与灵活性,为大模型赋予了操作软件系统的“手脚”,能够自主完成网页抓取、数据追踪及文件处理等复杂任务。
这一盛况与2025年初DeepSeek引发的热潮颇为相似。在产品实现现象级普及后,产业界与资本市场迅速响应:一方面,MiniMax、智谱等科技企业纷纷宣告接入OpenClaw,掀起了一场“百虾大战”;另一方面,二级市场中的优刻得、云赛智联等相关概念股也迎来了显著的上涨。
那么,这股“龙虾热潮”究竟具备多强的持续性?在产业链中,又有哪些企业将脱颖而出成为真正的赢家?
需要哪些硬件?
目前OpenClaw一个较受欢迎的部署方案为Macmini本地部署,这实际上已经指明了OpenClaw发酵后利好的硬件方向。
简单来看OpenClaw的工作流,用户通过飞书等窗口发出需求指令,大模型分析用户指令并规划工作方案,最后OpenClaw在本地执行各类脚本,完成各类操作,并将操作结果存储在本地。
大模型的解析与规划环节主要依赖云端调用模型厂商的API来完成,这直接消耗了模型厂商的算力***。而本地脚本的执行则占用Macmini等终端设备的CPU与内存***。特别是当用户利用OpenClaw进行大批量文件处理或复杂任务时,对内存的性能需求将迅速增长。此外,若用户需长期保留执行结果,还将产生数据存储需求。
综合来看,OpenClaw生态所依赖的核心硬件矩阵主要涵盖三大类别:云端GPU、本地CPU、内存和存储。即便用户***用MiniMax、智谱等企业提供的云端OpenClaw部署方案,其核心硬件逻辑依然适用。因为云端OpenClaw同样运行于服务商的专属服务器中,在执行网页抓取、数据追踪及文件处理等操作时,不可避免地需要消耗大量的云端CPU和内存等***。
倘若OpenClaw能够实现大规模的商业化普及,无疑将为算力、CPU及存储产业开辟出增量市场。原因在于,出于各类条件约束,用户难以将其布置在工作或学习的主力电脑,转而寻求选择云端或本地其他硬件的“第三空间”。
这一方面是出于安全性考虑。OpenClaw具有读写本地文件和执行代码的极高权限。出于数据安全和隐私保护的考量,物理隔离(使用另一台电脑)成为最安心的解决方案。
另一方面是避免抢占主力***。OpenClaw的定位是“自动辅助工作”。如果其在执行过程中占用了大量的CPU和内存,导致用户正常使用电脑时出现严重卡顿,就会本末倒置。
因此,稳妥的选择是,要么选择***用其他厂商云端部署的方案(损失一定便利性);要么购买专门的主机或***用旧电脑。
整体来看,这一趋势将会产生算力、CPU、存储的增量需求。
利好哪些公司?
聚焦于本地部署场景,新增的硬件***购需求主要集中在电脑主机(以Macmini为代表)、NAS(网络附属存储设备)以及VPS(虚拟专用服务器)三大领域。需要指出的是,VPS虽在形态上表现为虚拟机,但在商业本质上依然相当于购买了底层的硬件***。
电脑主机方向,目前国内主流电脑消费品牌如联想、同方电脑(现属于软通动力)、雷神科技均具备电脑主机产品。此外,面向B端的企业如智微智能也拥有电脑主机产品。
NAS方向,虽然相关产品在国内仍属于小众,但国内拥有相关产品的上市公司已包括绿联科技、海康威视、联想集团,其中绿联科技为国内消费级NAS龙头。
VPS方面,国内云厂商均可提供类似服务,独立云厂商如优刻得、青云科技、金山云均是受益者。
在终端硬件的基础之上,中游产业链的整机代工及组装厂商同样迎来了发展红利。其中华勤技术、龙旗科技、闻泰科技、工业富联等老牌消费电子ODM厂商均具备相关能力,此外浪潮信息、中科曙光、紫光股份等云厂商的设备供应商也可从中受益。
进一步向产业链上层溯源,GPU、CPU、存储芯片等核心零部件的“卖铲人”角色无疑是最后的赢家。从CPU角度看,国内的主要参与者包括海光信息与龙芯中科两大上市巨头。
除了上述对硬件产业链的全面利好外,本轮行情与上一轮DeepSeek引发的接入潮类似。众多软件企业纷纷宣布接入OpenClaw,当市场情绪处于高位时,这些软件企业同步也具备了短期上涨的潜力。
长需求还是短泡沫?
OpenClaw所引发的现象级狂热,最终能否转化为实质性的长期利好,关键在于“抢装潮”之后使用的可持续性。
当前一个关键的阻碍在于使用成本。即便不考虑额外的硬件购买支出,用户接入大模型API后所消耗的Token费用也是一笔不小的开支。
根据APIYI统计,用户每一轮简单问答消耗token数约在1万量级,进行30轮代码聊天消耗token数约180万,上传文档后聊天消耗token数约60万。此外,由于OpenClaw在每轮对话中把最近的6条消息记录全部拉取并发送给大模型,token消耗(特别是token输入)也会滚雪球般上升,尽管各大模型多会提供上下文缓存服务,但并非可以百分百触发。
以MiniMax-M2.5模型的计费价格为例:每百万Token输入价格为2.1元,输出价格为8.4元。仅考虑输入价格的影响,当多轮对话后Token消耗滚动至数百万规模时,新一轮对话消耗的Token费用可能会高达数元甚至十余元人民币。
在高频使用场景下,用户每月的API支出可达数百元至数千元不等,年度支出则会达到数千元至数万元不等。
作一个跨领域的对比,根据《数字消费发展报告(2025)》,2.72亿“Z世代”网民是数字内容消费的主力群体,且生成式人工智能使用率超70%。2025年上半年,我国数字内容(包括游戏、视音频支出)消费总额约4200亿元,年化数字8400亿元。将这笔支出全部归集到2.72亿“Z世代”网民,人均年支出约3000元人民币。
因此,对OpenClaw这类尚在探索中的效率工具而言,其能否在消费金额上打败传统的“爱好支出”,仍是一个有待冷静思考的问题。但这一挑战也为大模型产业的发展提供了另一个指引方向:如果Token价格(而非模型性能)成为阻碍OpenClaw扩张的核心因素,那么未来“降本”可能会成为大模型商业化应用的关键推动力。
*免责声明:
本文内容仅代表作者看法。
市场有风险,投资需谨慎。在任何情况下,本文中的信息或所表述的意见均不构成对任何人的投资建议。在决定投资前,如有需要,投资者务必向专业人士咨询并谨慎决策。我们无意为交易各方提供承销服务或任何需持有特定资质或牌照方可从事的服务。返回搜狐,查看更多
