阅读视图

深扒Minimax与智谱:大模型,一场算力强度与融资耐力的残酷绝杀?

文 | 海豚研究

26年初ChatGPT发布三年之际,中国两大AI大模型创业公司Minimax和智谱几乎同时,均以大约60亿美金的估值上市,且上市后都以暴涨,并带动整个AI应用的普涨行情。但同时,扒开两个大模型公司的报表,都是“亏无止境”的面相。

一边是全球大模型疯狂卷价格、越来越多大宗商品,一边是模型无底洞的研发投入,但同时还有这种即翻倍的盛景。冰火交织下,海豚君一直的疑问是大模型到底是一种什么样的生意。

这次,海豚君就结合两个上市的公司数据,来认真探讨一下这个问题:

1)大模型到底需要怎样的投入要素和密度?

2)算力到底扮演了什么角色?

3)模型经济学如何算,才能平衡?

4)最终,大模型到底是怎样的生意模式?

以下是详细分析:

一、拔高的收入、惊悚的投入

两个大模型公司Minimax和智谱,都是“短小精悍”型——人手少、产品迭代快,收入增长快。人数到2025年下半年没超一千人,收入零起步,两三年年化收入都在快速迈向一亿美金。

但到了支出层,再高增的收入都被凶猛的投入比得相形见绌:即使收入增长过程中,Model to B公司智谱持续保持在50%的高毛利,还是Model to C公司Minimax毛利率翻正。

2024年两个公司的支出(成本与运营开支)加总基本在当期收入的10倍上下。Minimax 2025年前九个月收入快速做大后支出仍然是收入的5倍以上;而智谱到了2025年上半年看起来反而更加规模不经济了。

这里的核心问题是,对于模型公司而言,到底收入越大、亏损率收窄,还是收入越大、亏损率越高的规模不经济结局?

模型经济学的底层三要素——数据、算力、算法,大家已耳熟能详。但要解答模型到底适不适用互联网规模经济规模,关键是理解大模型到底需要怎样的投入密度。

在大语言模型训练中,用了什么训练数据从来没有模型厂真正公开,但这个问题大致有这么两个共识; a.公共语料库有百科、代码库、Common Crawl语料库等; b.但公共和标准语料库几乎已被模型训练完毕。

到了2026年,大模型公司开始依赖合成数据和思维连数据。但未来,要给模型投喂更多数据,要么靠自身超快的落地速度去接入更多场景;要么大模型公司本有自有数据,比如说互联网大厂更具数据优势;剩下就是比拼对私有数据的付费能力。

但数据投喂量因涉及数据合规和隐私等,没有模型厂会在报表中展示。真正能体现在报表端的,主要是算力和算法,算法的精进本质是靠人,算力对应的是芯片和云服务。对于这两个问题,我们就一个一个来看一下。

二、人太贵了?不是核心问题!

两个公司员工整体都没超1000人,尤其是Minimax都不足400人;两家公司研发人员都接近75%,单人头月成本6.5-8.5万元人民币(不含期权激励),其中Minimax研发人员单人月成本是16万。

Minimax因人员更为精炼,收入做大过程中,薪资支出至少已能够收入覆盖。而智谱因为商业变现上主要是to B落地,需要匹配更多销售人员;而且研发上对通用模型着力更高,所以人力成本改善并不明显。

其实,从这两家公司可以看出,大模型在人力上的投入,更多是人才“脑力”密度的投入,而非人力密度的投入。甚至从Minimax的人才密度,可能已经预示了AI时代互联网公司的人力结构雏形:

少而精的大模型研发人才,大量其他的部门岗位都在被模型取代(Minimax旗下AI产品众多,但并未对应超大的人头量),总体薪资呈现出单人薪资超高,但总体可控的状态。

比如Minimax一年总薪资支出大约1亿美金(大约收入的90%上下),考虑到这两家公司基座模型的迭代能力和多模态的发布速度、海外AI动辄上亿美金的抢人战惨烈程度(动辄挖一人开出的薪资就上亿美金),这样的人员支出还不算夸张。

三、核心矛盾:创收 vs 投入,到底能有平衡的时候吗?

虽然薪资成本基本已经把当期的收入“吃光了”。相比于算力投入,人力薪资只是小菜一碟。薪资至少可以随着收入的扩张而有效稀释,但算力投入从两家目前的情况看下来,是一个比收入增长斜率更高的投入类型。

而且从报表上来看,由于Minimax和智谱固定资产开支都非常少,几乎可以确定,两家公司的算力都是使用的第三方云服务,这种相对轻资产的模式,而非OpenAI高度自控数据中心的方式。

大模型公司的报表中,算力的使用都分为了训练算力和推理算力。

模型在训练阶段,就等于要做出来一个可以产生经济效益的商品和服务,需要做研发投入,在产品投用(模型进入推理场景)之前,对应的模型训练支出,都是推出产品之前的“沉淀支出”,计入研发费用当中。

而研发好的模型投入了推理使用场景中,产生的收益记为收入,而推理阶段模型对于算力的消耗,就记为收入创造过程中的直接成本,记在成本项当中。

背后的逻辑也简单:大模型公司砸人、砸算力、砸数据先在实验室里做模型的研发,这个是无论模型是否做出为客户所用,是模型公司都必须要做“沉淀投入”。

只有当模型被研发出来,可以用到推理环节,无论是客户调用模型接口还是自己直接用模型做出来APP来产生收入,才会产生推理收入和推理计算的成本。

这Minimax和智谱两家公司来看,为了研发模型,单单训练算力投入全部占到了总支出的50%以上,是开支的绝对大头,也是妥妥的“吸金黑洞”,贡献了两家公司5-10倍亏损率中的一半以上的支出。

这一占比,直接量化了海豚君在《AI泡沫“原罪”:英伟达是AI戒不掉的“兴奋剂”?》中所说的算力吸空产业链利润的说法。

再拿收入创造和模型训练投入相比,就更能直观感受到训练投入的强度了:

从Minimax来看,2024年创收只有23年模型训练算力投入的65%,25年前三季度虽然收入成长很快,但也对24年同期训练算力成本覆盖能力反而进一步降低到了50%;智谱到25年上半年更是仅有30%的覆盖率。

Minimax由于产品落地上,以海外to C情感AI陪聊为主,设计上有很多游戏和互联网增值的变现模式(详细产品和商业化落地会另外详细分析),to C的互联网规模效应+海外付费能力较强,收入对训练成本情况压力尚小一些。

但智谱的情况就是一个非常明显的收入高增,但对训练成本的回收能力,因为训练成本增长斜率更高,反而越来越弱。

这两年趋势看,虽然两家作为中国独立模型公司的佼佼者,收入增长斜率都很高,但当年创收对上一年研发投入的代偿全都不尽如人意。

这两年趋势看,虽然两家作为中国独立模型公司的佼佼者,收入增长斜率都很高,但当年创收对上一年研发投入的代偿全都不尽如人意。

模型要优秀,训练成本就越高;收入跑得再快,也跟不上一代更比一代高的模型投入。那么矛盾来了,模型越做越亏,这种生意如何理解商业价值?

四、大模型到底是怎样的商业模式?

大模型动辄1000%的亏损率,再次形象地说明了它的研发是一个人才+算力+数据三重密集的商业模式。

强投入和快迭代的共振,在海豚君看来,本质上是把一个强资产负债表的资金密集性业务,做成了“全长在”利润表上的生意。

而当它具备长期的经济和商业价值的时候,就是模型回归成真正的“资产负债表”业务——模型不再需要年年投,而是投一年的训练成本可管之后10年甚至20年,让模型持续产生收入。这个时候,训练成本可以做长期摊销的时候,也只有这样,模型研发的训练成本才会有研发资本化的真正商业基础。具体来看:

1)算力:节节高的“固定资产投入”

Minimax和智谱为例,23年研发一代模型,训练成本要四、五千万美金之间; 而下一代模型的训练要实现代际的线性差异,在数据量、模型参数量和算力投入反而是指数级的提升。最终算力效率提升,反而拉高了算力的总需求量。

从这两家公司来看,模型升级一代,训练成本基本要提高3-5倍。

当下大模型的竞争节奏,基本都是一年出一代模型。也就是说之前一年训练出的模型,只对应接下来一年的推理创收期。

这么高的算力投入,没有办法做摊销折旧,只能全部计入当期的研发费用当中,结果就是上文高于收入5-10倍的亏损这种 “惨不忍睹”的亏损率。

2)快迭代:收入vs 投入,追不上的“猫鼠游戏”?

智谱和Minimax两家公司面临的共同情况都是,模型的创收能力尚且覆盖无法模型的算力投入。虽然收入跑不过训练成本,一边狂亏一边狂投,几乎是研发大模型必然的宿命。

为了让自己活到黎明时刻,公司要把这代模型的创收,再考虑上研发薪资支出,几乎要再贴上高于收入3-5倍的融资资金,才能为下一代的模型研发续命,以保证模型不被市场淘汰。

而这样一直滚雪球下去,就是一个收入一直追不上未来投入;且只要还在大模型竞争的牌桌上,就需要不断融资,而且越做大、融资窟窿越大的“资本比拼”游戏。

3)缩放定律失效:资本游戏结束?

一个自然而然的问题是,这么下去,到底什么时间才是个头?很显然,在成本端投入巨大的情况下,这里矛盾的核心已不是简单的收入成长速度能否匹配训练成本增速的问题,更加重要的问题是,什么时间模型不需要这么大的投入,或者迭代速度不需要这么快了。

对于大模型技术本身而言,不需要投入的时候,其实就是缩放定律(scaling law)失效的时候,换句话说,当增加一点点的智力所需要的算力开始暴涨式上升的时候,模型训练的必要性就不大了。

模型不再需要高频的训练来迭代,也意味着高密集的训练重资产投入告一段落。算力投入一代新模型后,这代模型能有10年甚至更长的时间来创收。甚至当模型不再需要训练投入,但大模型能够一直创收,这时一个类似“长江电力”的商业模式也就呼之欲出了。

但这个假设的基本前提是,头部大模型厂商在长期的资本、人力和数据消耗战中,已经熬死了一众对手,仅剩的几个对手之间达成默契,不再打价格战,最终形成类似当下云服务市场一样、市占率高度集中的寡头市场,那么大模型的商业模式自然也就立住了。

4)终局之前,是残酷的资本游戏

但缩放定律失效时刻到来之前,大模型公司会是持续的吞金兽。这种情况下,商业模式的竞争本质上就变成了一场持续融资的资本竞赛。

当然,如果像蔚来一样,真有大模型公司能把融资做成一种差异化的生存能力,确实也是一项核心技能。但对于大多数公司而言,融资不是博傻游戏,资金愿意融资,本身是要看企业的产品和执行能力,能融到资金,而且估值越来越高,本身也是一个双向选择的过程。

按媒体报道,中国的模型之战,也已经从刚开始的百模之战走到基模五强——字节、阿里、阶跃、智谱和DeepSeek。

原本的模型创业“六小龙”阶跃、智谱、MiniMax、百川智能、月之暗面与零一万物中,在DeepSeek一夜爆红并用完全的开源颠覆了模型收费之后,零一万物和百川智能已经掉队。

海外同样也已经变成五虎争霸:OpenAI、Anthropic、谷歌Gemini、xAI和 Meta Llama,甚至Meta的模型也已经落后。

一些能够持续融资且估值能够水涨船高、有一些在快速的死在了半路上。从大模型生存的路径来看,融资能力背后真正的是核心人才模型实力产品落地进度能力综合作用的结果。

核心人才是AI的上亿美金抢人大赛,这个还是持续进行中,而另外两个一个看模型本身智能化程度,而另外一个最终要落地到创收能力上。

1)模型实力

从下文可以看到,模型创业公司能生存下来,大多在模型的榜单上能找得到名字,这背后是模型在各个细分颗粒度上(模型智能化程度、幻觉率、模型参数、回答时首个Token输出前的等待时长等)的竞争相对靠前。

2)产品落地能力

过去一年中,多数独立创业公司,要么在与互联网大厂竞争中被挖走了人,要么产品落地上创收困难,要么是模型价格比拼中,干不过性价比高的开源模型,模型隐没在了半路上。

如果用一句话来概括的话,在Scaling Law撞墙的“黎明时分”之前,甚至到来之后的一段时间内,我们都会看到一个个模型在“人才抢夺、模型研发和产品落地”三维度的比拼中,一个个倒下去。

而真正能走向决赛的,除了看人和背后的资金实力,更加重要的是看模型研发的进度和产品落地的水平。

下一篇分析,海豚君就会围绕智谱和Minimax的模型和产品落地,来理解如何去评价大模型的资本市场价值。

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

  •  

AI玩具大狂欢,大厂生态的“爆发”叙事

作者零态LT

文 | 零态LT,作者|林飞雪,编辑|胡展嘉

河北容城县的玩具厂里,如今最忙的不是缝纫工,而是调试智能模组的技术员。央视网2025年12月报道,当地已有十几家企业转型研发AI玩具。

拉斯维加斯CES 2026大展上,类“拓麻歌子”的AI虚拟宠物Sweekar被观众围得水泄不通。

它用表情回应每句话。

更生动的场景来自北京日报同月的报道中,6岁孩子抱着“AI奥特曼”兴奋欢呼,华为联名款“智能憨憨”开售10秒售罄。市场热度肉眼可见,但一个鲜明的反差也随之浮现,这场全民追捧的AI玩具大狂欢以及科技叙事中,为何看不见更多科技大厂的身影?

AI玩具本质不是玩具

以前买玩具,好玩,造型、手感构成购买理由。现在买AI玩具,图的是好用,大家指望它能聊天、陪人、教孩子,甚至当个情绪垃圾桶。两者都叫玩具,但消费动机已在变化。央视网上述报道将AI玩具形容为会聊天、能学习、有记忆的产品形态,它既能走向儿童早教,也能走向多元场景。

这种好用,不是简单地将技术塞进玩偶肚子里,而是让玩具成为AI走进家庭等场景的敲门砖。消费者买的不是一个玩偶壳子,而是一个能聊、能陪着玩的智能交互工具。根据天眼查媒体信息以及新华网在2025年5月的财经聚焦文章里写到,AI玩具被视为大模型落地的场景之一。

如果只将AI玩具理解为更聪明的玩具,或许容易低估它对玩具行业的改造力度。以前玩具厂比拼的,主要是三样本事,制造与交付能力,渠道与上架能力,IP与内容的供给能力。AI进来以后,多了一件更难的事,怎么能让人一直愿意跟它玩、不腻味。

图:AI虚拟宠物Sweekar

一次性购买的玩偶容易让人喜新厌旧,但能聊、能懂的交互工具会让人原意打开、形成依赖。正是这种时不时就想找它说两句的玩法,让AI玩具更像请了个长期陪聊,而不是柜台上的商品。

需求侧的变化同样值得认真对待。玩具不再只服务儿童玩耍,它也服务家庭关系。家长愿意为孩子的AI玩具付费,往往是希望孩子能被回应、被引导、被陪伴,情绪得到安放。一个年轻人愿意买AI毛绒玩具,也许并不是童心复燃,而是压力之下需要一个不会打断、不嫌麻烦的倾听对象。

根据天眼查公开信息及工信部数据显示,2024年我国AI玩具市场规模达246亿元,2025年预计增至290亿元。市场能涨这么快,本质上正是大家买玩具的心思变了,从为了玩一把,变成了长期陪伴。

AI玩具借用玩具的亲和外形与家庭场景,承接AI的对话能力、内容供给、语音与角色设定,再将这一切包装成一个可买走的物件。玩具只是载体,真正被消费的,是可交互的感觉,以及随时可响应的陪伴。

玩具在前,大厂在后

在多数消费者的直观感受里,大厂在AI玩具中并不是主角,甚至常常隐藏在后面。这便是行业层面,大厂的位置所在,即更常出现于后端赋能。这不是大厂往后“躲”,而是AI玩具产业可持续发展的一种更聪明的分工。

玩具行业的硬件制造牵涉供应链管理、材料与工艺、品控与交付、线下渠道与上架节奏、IP授权与联名合作,任何一项都需要长期磨合。大厂更擅长的部分,则是大模型能力、语音识别、内容供给、算力与平台化等能力与工具输出。身居其中的大厂一旦在AI玩具产业发挥内核级别的功效,则能助力玩具厂做出真正卖得好,还能让消费者离不开的AI玩具。

根据天眼查媒体公开信息,及Statista数据显示,未来十年内,全球AI玩具市场将以约14%~16%的复合年增长率持续攀升,预计到2034年有望突破600亿美元。

AI玩具的热闹看似来自柜台前那只会聊天的玩偶,真正能支撑其长期使用的力量却是来自一张大厂与玩具厂共同织就的协作网。其中,制造端负责触感与交付,技术端负责模型能力与算力供给,内容端负责内容与角色的持续更新,渠道端负责触达与运营,售后端负责使用过程中问题的解决。

▲图:奥特曼AI互动玩具

任何一环松动,AI玩具的体验会从陪伴退回原始玩具,复购与口碑或难守住。

玩具在前的意义,来自行业对玩具基础消费需求的长期理解。玩具厂深知不同年龄段对陪伴的期待并不相同,儿童要故事与想象,成年人要安慰与共情,老年人要陪聊与提醒。玩具厂也深知可爱并不是幼稚,而是一种降低戒备的设计语言。而AI玩具如果长得像冷冰冰的电子设备,便很难进入家庭日常。

玩具厂在这方面的经验,远比大多数技术团队更成熟。

大厂在后的意义,则来自技术赋能和能力的复用。大厂不必亲自做每一只玩偶,它更适合提供可规模化复制的能力层,例如语音识别、对话生成、内容组件、算力支持与工具组合。可以说无大厂、无技术可能就没有真正的、可持续的AI玩具。

这也就能想通,大厂为何乐意“躲”在后面。玩具是硬件生意,硬件需要备货、交付、售后,毛利弹性与运营弹性往往不如平台型服务。大厂如果将自身定位在后端能力供给,则既能通过多品牌、多品类扩大覆盖面,也能将迭代压力放在技术、软件与内容侧,从而更快响应市场变化。

过去,玩具行业的胜负更像渠道与款式的竞赛,如今则更像一场谁能提供更稳定陪伴体验的竞赛。玩具厂不再只拼造型,大厂不再只拼模型参数,双方一起拼的是家庭等场景里那句能不能懂我的确定性,以及确定性背后的生态与规则。

生态格局,规则定胜负

当市场规模接近一定量级,单一企业独自覆盖从硬件到云端,再到内容与运维的全链条,成本与风险会同步上扬,分工协作更符合企业经营规律。大厂与产业带的携手共创,使协作网有了生态抓手。

2025年6月12日,由百度智能云、澄海区政府主办,澄海玩具协会与实丰文化协办的2025 AI玩具产业创新和发展会议举行,大会以“集群聚势·AI破界”为主题,汇聚全球AI技术厂商、知名IP方及产业链上下游伙伴,共探AI玩具的生态构建与创新发展路径,加速传统玩具制造向高端智造转型升级。无独有偶,2026年1月20日,京东发布JoyInside方案并推进产业带建设,以能力供给降低接入门槛。

由此来看,大厂正努力将核心价值放在AI玩具技术全链路能力的长期供给与协作效率上,用一流的模型能力和端侧智能,确保体验的稳定性和可持续性。而技术底座一旦得以持续供给,玩具厂的AI玩具销量提升会更快,渠道的经营也更有确定性,行业将呈现大厂提供通用底座,多品牌在外观与内容上做差异化的生态效应。

而生态扩张的基底,则是规则。其作用犹如底盘,底盘稳,一切才有可能。其中,规则定胜负的第一维度,来自制定准入条件。位于后台的大厂,能够给出自己的一套AI玩具技术接入规范,例如算力调用额度、模型稳定性、数据留存边界、账号与权限分级等。玩具厂用哪家大厂的整套能力,意味着谁更在生态位的上方。

久而久之,市场上大量AI玩具产品若在同一套标准下运行,渠道也更愿意接入这一大厂的能力。由此,谁掌握准入能力,谁就更容易将自有规则变成行业共同语言。

第二维度,则来自谁决定互动边界。AI玩具的价值核心来自互动,而最容易翻车的同样是互动。尤其在家庭环境里,一句不合时宜的回答足以让家长关机。大厂将分龄对话策略、话题白名单与黑名单等做成对话机制,再将这一能力输出给玩具厂合作方,让产品不翻车。

对玩具厂而言,这类规则输出的能力不是锦上添花,而是避免产品失控的安全垫,规则越细,边界越明确,体验越稳定,消费者越敢让孩子长期使用。

第三个维度的规则,则来自如何承担长期责任。AI玩具不是一次性交付的物件,而是一种需要持续性服务的智能产品。因此,任何一个小问题都可能会在高频使用里被放大,断连、延迟、误唤醒、内容失准等,都会磨损体验。大厂通过建立基于技术能力的长期责任机制,确保合作方在同一套责任机制下运行。

行业进入规模期时,渠道与消费者都更愿意选择责任链条明确的AI玩具,而哪家大厂的规则更能直接转化为信任门槛,竞争对手可能越难以用同类规则换走长期资源。

生态做大之后,竞争的关键不停留在规则本身,而是向更可信、更可控升维。

一个例子是,家庭场景里,儿童的使用边界更严,家长对隐私与内容的担忧更强,对合规风险更谨慎。2025年9月16日举办的2025年国家网络安全宣传周个人信息保护论坛上,主办方就发布了“智能玩具个人信息保护倡议”等成果。

当AI玩具具备持续对话与内容生成能力,规则便成为产品竞争力最为核心的一部分。大厂之间规则制定与推广的比拼,将决定能否获得进入更广阔应用场景与销售渠道的通行证。在这一点上,具备更成熟的安全治理水平、更稳定的隐私保护策略供给、更可持续的监测运维与更新迭代能力,是大厂抢夺AI玩具未来定义权的筹码所在。

写在最后

北京日报报道的那段开头里,6岁孩子抱着“AI奥特曼”兴奋地喊出“真的会说话”,一瞬间令许多成年人也被拉回到童年。玩具不再只是玩具,而像一个能回应的伙伴。它不靠讲述行业远景吸引人,只靠一件更朴实的事情留住人,能开口、能聊几句、能陪一会儿。

当这一场景走进越来越多的家庭,所谓大厂甘居幕后也就不再神秘。AI玩具的狂欢并不会只靠上新数量维持热度,它更像一场长期竞赛,只有让陪伴更稳定、大脑更聪明、规则更清晰,才更有可能在热度之上持续留在用户的桌面与床头。

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

  •  

Clawdbot爆火,我看到了腾讯元宝的通天路

作者字母AI

文 | 字母AI

GitHub上有这么一个项目,一天内就暴涨了9000颗星,从早上的7.9K飙升到晚上的17K+。截至发稿,这个项目已经突破4万颗星了。

这种增长速度在开源项目中极为罕见,甚至由于这个项目能运行在苹果M4芯片上,直接引起了Mac mini的抢购潮。

而这个项目就是Clawdbot。

周末这两天,整个硅谷A 圈都沉迷在了Clawdbot 里。

前特斯拉 AI 负责人安德烈·卡帕西(Andrej Karpathy)公开点赞,谷歌AI产品负责人洛根·基尔帕特里克(Logan Kilpatrick)跟风购买 Mac mini, MacStories 的费德里科·维蒂奇(Federico Viticci)在一周内烧掉1.8亿个Anthropic API Token,就为了体验Clawdbot。

看到Clawdbot的火爆,我突然意识到:这不正是元宝在微信生态里可以复制的机会吗?

但在探讨元宝的可能性之前,我们还是先来了解一下,Clawdbot到底是什么,它为什么能在短短几天内征服这么多AI大牛。

什么是Clawdbot

一句话概括,Clawdbot是一个开源的、可自托管的AI助手。

它的核心创新点在于,无需打开专门的网站或App,只需通过日常使用的通讯软件(WhatsApp、Telegram、iMessage、Discord、Slack等)发送消息,就能指挥它完成各种任务。

相当于是有个24小时不休息的员工坐在你电脑前,你下班的时候想看电视剧了,就可以跟Clawdbot说你的需求,他会打开相应的页面。等你到家后,坐在电脑前就可以直接看你想看的电视剧了。

Clawdbot 的设计逻辑是通过消息应用发出指令,它会调用后台运行的大语言模型,将需求转化为本地Shell脚本并在你的电脑上执行。

换句话说,它不是告诉你怎么做,而是直接帮你做完。

它的工作流程是“消息应用⇄网关⇄AI 模型+工具”的架构。网关作为协调中枢运行在你自己的设备上,负责消息路由、状态管理、定时任务和服务集成。

但纠结的地方来了,为了让AI更强大、更好用,它就需要极高的权限(读写文件、执行终端命令)。但为了安全,又必须限制它。

Clawdbot的解决方案是引入“会话隔离”机制。

它把使用场景分成两类:一类是“主会话”(main session),就是你一对一跟它聊天的时候;另一类是“非主会话”(non-main session),比如在群聊或者公共频道里。

在主会话中,Clawdbot拥有完整的系统权限,可以读写文件、执行bash命令、控制浏览器、操作日历。因为这时候只有你在和它对话,风险可控。

但在非主会话中,Clawdbot会自动切换到“沙箱模式”,它会把所有操作都放进Docker容器里执行。

这就好比给它准备了一个“训练场”。在这个隔离的环境里,它依然可以执行命令,但无法触及你电脑上的真实数据。即使有人在群聊里试图通过恶意指令攻击你的系统,Clawdbot也只会在沙箱里执行,不会影响到真实环境。

另一个技术难点是网关(Gateway)和工具(Tools)的协调。

网关是运行在你设备上的控制中枢,它负责接收来自各个聊天软件的消息,维护会话状态,调度 AI 模型,管理定时任务。而工具则是Clawdbot能够调用的各种能力。

这两者的配合并不简单。当你在聊天软件里给Clawdbot发一条消息,网关需要做这样几件事:

1.识别这条消息来自哪个会话(是主会话还是群聊),

2.决定用什么权限级别来处理(完整权限还是沙箱模式),

3.把消息发给 AI 模型理解意图,

4.AI 模型返回需要调用的工具和参数,

5.网关再去执行这些工具,

6.最后把结果返回给你。

整个过程中,网关要同时处理多个会话,每个会话可能有不同的权限配置,还要保证消息的顺序不乱,状态不丢失。

这就像一个交警,他需要协调来自不同方向的车,在保证效率的同时避免碰撞。

为了解决这个问题,Clawdbot 设计了一套“会话模型”。每个会话都有自己的状态、历史记录、权限配置。

虽然AI推理仍需调用Anthropic或OpenAI的API,但路由逻辑和自动化控制完全在本地,保证了隐私和可控性。这种架构设计让Clawdbot既能利用云端大模型的强大能力,又能保持本地优先的隐私原则。

模型的记忆是有限的,但是Clawdbot属于长期持续工作的产品,因此它将所有交互记录以Markdown格式存储在本地文件夹中,形成持久记忆,类似Obsidian的知识库。

它会记住你的偏好、习惯、正在进行的项目,每次对话都能延续上下文,而不是像传统AI那样每次都从零开始。

同时,Clawdbot还具备一定的“自我升级”能力。比如当你告诉它“我想让你能够生成图片”,它会自己去研究如何接入图片生成API,自己改进自己的代码,然后告诉你“我现在可以生成图片了”。

Clawdbot官方把这个过程叫做“自我技能扩展(Self-Expanding Skills)”。

它会优先检索官方技能库与用户本地已安装技能,仅在无可用资源时才进行完整API研究与代码编写。

当技能升级扩展完成后,Clawdbot会开始语法检查、权限验证、功能试运行三步,测试失败会自动回滚并向用户报告问题,不会影响现有功能。

此外,Clawdbot还是一个主动的AI助手。它通过cron定时任务,能够主动向你发送消息。每天早上自动发送日程摘要、每周五下午总结本周工作进展、监控特定条件并及时提醒。

这种主动性打破了传统AI的被动响应模式。你不再需要记得去问它,而是它会在合适的时间主动找你。

运行Clawdbot并不需要昂贵的硬件。虽然网上流传着很多人购买Mac mini来运行Clawdbot的故事,但实际上,对于基本的聊天、总结、API调用场景,只需要一台每月5美元的VPS就足够了。

只有当你需要运行本地大模型、执行重度自动化任务时,才需要考虑Mac mini这类本地硬件。Mac mini的抢购潮更多是一种社交证明和极客文化的体现,而非必需品。

不仅仅是操作电脑,从技术实现上看,Clawdbot支持超过50种集成,包括Gmail、GitHub、Obsidian、Notion、Todoist、Spotify、Philips Hue智能灯等。

那也就意味着,你可以用一条短信,控制整个屋子的智能家具。

Clawdbot可以连接你生活和工作中的几乎所有数字工具,成为一个真正的数字生活中枢。而且由于它是开源的,社区正在不断贡献新的技能和插件。

为何 Clawdbot 会爆火?

Clawdbot 的火爆源于它解决了现有AI工具的核心痛点:摩擦力太大。

这个问题听起来简单,但它是阻碍AI真正融入日常生活的最大障碍。

传统AI需要你打开网页、切换标签页、复制粘贴结果,每一步都在打断你的工作流。

你正在写邮件,突然需要AI帮忙润色一段话,你得切换到ChatGPT的标签页,粘贴内容,等待回复,再复制回来。

这个过程看似只需要几秒钟,但它打断了你的思维,使整个流程不再连贯。而Clawdbot不同,它就在你的聊天软件里,你发一条消息就能得到回复,不需要任何上下文切换。

另一大原因在于隐私。

在AI服务普遍依赖云端的今天,Clawdbot的本地优先、开源透明、用户可控理念击中了技术社区的核心诉求。你的对话记录、个人偏好、自动化脚本只会存储在自己的设备上,可以随时查看和修改。

“数据主权”掌握在自己手中,这对于重视隐私的用户来说是巨大的吸引力。

更深层的原因是,Clawdbot代表了一种新的软件范式。传统软件是静态的,开发者写好功能,用户被动使用。而 Clawdbot是动态的、可塑的。

你可以随时让它学习新技能,可以让它根据你的需求自我改造。

这其实是一种“软件即对话(SaaC,Software as a Chat)”的新模式,每个用户都能以自己独特的语言风格和需求,拥有一个量身定制的助手。

从社区反应来看,Clawdbot的火爆也体现了一种集体的渴望。人们等Siri变聪明等了十几年,等Alexa真正有用等了快十年,但这些大公司的产品始终停留在“设个闹钟、查个天气”的水平。

而Clawdbot用开源的方式,用社区的力量,在几周内就实现了这些大公司承诺了多年却没做到的事情。

这种“人人都是产品经理,人人都是开发者”的氛围,在技术社区引发了强烈共鸣。

诚然,Clawdbot在技术上并不没有什么很高深的地方,它本质上是一个“harness”(线束),它把强大的模型能力转化为实际可用的助手功能。没有这些模型的进步,Clawdbot 不可能实现。

但它的产品理念击中了人们的痛点。

AI助手的重点不是AI,而是助手。所以它不应该是一个单独的网站,而应该是一个生活在你日常工具里的存在。

更重要的是Clawdbot的可扩展能力,有人让Clawdbot每天早上总结Whoop手环的健康数据,有人让它自动处理保险理赔邮件,还有人让它监控服务器状态并在出问题时自动修复。

这些都不是官方预设的功能,而是用户根据自己的需求创造出来的。

元宝的机会来了

Clawdbot的成功证明,AI助手应该生活在用户已有的通讯工具中,而不是要求用户安装新 App。

在中国,这个工具就是微信。

微信不仅是中国最大的通讯工具,它本身就是现代生活的工作流之一。

人们在微信里聊天、工作、支付、购物,几乎所有的数字生活都能在微信里发生。

如果元宝能够以通讯录的形式存在,它将拥有天然的用户触达优势。用户不需要下载新应用,不需要学习新界面,只需要像给朋友发消息一样给元宝发消息,这种零门槛的使用方式,是任何独立App都无法比拟的。

而且,微信的优势还不止于此。

微信拥有支付和小程序生态,这意味着元宝可以做的事情比Clawdbot更多。

Clawdbot可以帮你查信息、写代码、管理日程,但它很难帮你完成支付、预订、购物这些闭环操作。

而元宝如果能打通微信支付和小程序,它就能真正成为一个万能助手。你可以让元宝帮你订外卖、买电影票、缴水电费、预约挂号,所有这些操作都在对话中完成,不需要跳转到其他应用。

Clawdbot将记忆存储为Markdown 文件,这已经很先进了。但元宝可以在微信生态内,以聊天记录、图片、表情包、订阅的公众号、微信订阅的服务,来构建更高维度、更精准的个人知识库。

微信记录了你的社交关系、消费习惯、兴趣偏好,这些数据如果能被元宝合理利用(当然前提是用户授权和隐私保护),它对你的了解将远超任何其他AI助手。

这种持久记忆能力将让元宝从临时工具变成长期伙伴,用户使用越久,它越了解你,它能带给你的价值也就越大。

Clawdbot的主动关心用户,对元宝也是一个启发。通过微信绑定的信息,元宝可以做到更多。

每天早上推送个性化日程和天气,这是基础功能。但元宝还可以监控快递物流并主动提醒签收,可以定期总结消费账单和理财建议,可以根据用户习惯推荐内容或服务。

比如,元宝发现你最近经常搜索某个话题,它可以主动推送相关的公众号文章或视频号内容。

这可不是畅想,从技术实现上看,元宝复制Clawdbot的核心能力是完全可行的。

Clawdbot的架构并不复杂,前文提到,一个消息网关,一个大语言模型接口,一套工具调用系统就够了。

这些技术腾讯都有,而且可能做得更好,更何况腾讯还有自己的混元大模型。如果腾讯愿意投入资源,元宝完全可以成为中国版的Clawdbot,甚至做得更好。

但元宝要成功,需要解决几个关键问题。

第一个是隐私和信任。Clawdbot之所以受欢迎,很大程度上是因为它开源、本地优先,用户完全掌控自己的数据。

而元宝作为腾讯的产品,必然是云端服务,如何让用户相信自己的数据是安全的、不会被滥用,这是一个巨大的挑战。

第二个肯定就是开放性,Clawdbot的强大来自于社区贡献的技能和插件,而元宝如果想要同样的生态,就需要开放API,让第三方开发者可以为元宝开发技能。

但腾讯对于开放API 的态度一直很审慎。多年来,微信一直对第三方API保持严格限制,甚至封禁使用itcha 等非官方API的账号。

微信的用户协议明确禁止“通过非腾讯开发、授权的第三方软件、插件、外挂、系统,登录或使用本软件及服务”。

所以如果腾讯真打算把元宝做成Clawdbot,那么需要好好想想究竟如何运营开发者社区。

最后是商业模式。

Clawdbot是开源项目,用户只需要支付API调用费用。而元宝作为商业产品,如何定价、如何盈利,这需要仔细设计。

如果定价太高,会吓跑用户,如果免费,又难以持续投入。

最近很火的freemium模式适合元宝版Clawbot。基础功能免费,高级功能(比如更强的模型、更多的API调用次数、企业级功能)收费。

从更大的视角看,元宝如果能成功复制 Clawdbot,它的影响力只会更大。中国有超过10亿微信用户,如果其中哪怕只有1%的人开始使用元宝作为个人AI助手,那就是 1000 万用户。

这个规模是Clawdbot在全球范围内短期内都难以达到的。

说到聊天软件和接壤AI助手,在美国,这个工具可能是WhatsApp、Telegram或iMessage。在中国,这个工具只能是微信。

元宝有机会成为中国版的Clawdbot,关键在于腾讯是否愿意投入资源,是否愿意开放生态,是否愿意真正把用户需求放在第一位。

如果答案是肯定的,那么元宝的未来将不可限量。

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

  •  

中国将出台应对AI影响就业文件

中国官媒披露,中国将出台应对人工智能(AI)影响促就业的文件。图为中国AI公司智谱平台页面。 (法新社)

中国官媒披露,中国将出台应对人工智能(AI)影响促就业的文件。

新华社引述人力资源社会保障部消息报道,中国将实施稳岗扩容提质行动,推出重点行业就业支持举措,出台应对AI影响促就业文件;强化重点群体就业支持,印发高校毕业生等青年就业文件,出台统筹城乡就业体系意见,建立常态化防止返贫致贫就业帮扶机制。

此前,中国工信部副部长张云明上星期三(1月21日)在新闻发布会上说,就业问题是发展AI必然会遇到的挑战,技术进步往往会伴随就业结构的重构、就业岗位的迭代。但重构不等于消失,迭代不等于替代,要用发展的眼光来看待发展中的问题。

他说,每个国家在发展AI进程中都会面临类似挑战,工信部将坚持应用牵引,充分发挥AI融合赋能作用,在推动组织模式、工作方式、生产范式重构的同时,不断提升劳动者的AI素养,培养更多既懂AI又懂制造业的复合型人才。

  •  

英伟达20亿美元加码CoreWeave,冲刺5GW算力

图片来自英伟达官网

图片来源:英伟达官网

英伟达继续加码算力基建,推动CEO黄仁勋口中“人类历史上最大规模的基础设施建设”

当地时间1月26日,该公司宣布与“新云”(neocloud)服务商CoreWeave扩大长期互补合作关系,支持后者加速建设AI工程,以期在2030年前建成超过5GW的项目,推动全球范围内的人工智能应用。

与此同时,英伟达还以每股87.20美元的价格追加投资了20亿美元的CoreWeave A类普通股。

此前,两家公司已经建立了深度合作关系。CoreWeave在2019年由“挖矿”企业转型开设GPU租赁业务后不久,即获得了供应商英伟达的青睐,2020年加入了英伟达合作伙伴网络计划,此后成为其首家精英云计算服务提供商,领先业界部署H100、H200,取得算力优势。2023年,英伟达向CoreWeave投资1亿美元,持股4%。

在去年3月CoreWeave纳斯达克敲钟完成IPO之际,英伟达进行增持,持股比例升至约5%。去年9月,双方又签订协议,CoreWeave承诺将订购价值高达63亿美元的英伟达芯片,而英伟达则保证2032年4月之前回购CoreWeave所有闲置产能。

此次追加投资后,英伟达持股比例提升到超过11%,预计将成为CoreWeave的第二大股东。而英伟达对后者的累计投资已达到60亿美元,占该公司公开持仓的九成之多。

关于此次合作的细节,双方共同宣布,CoreWeave开发和运营的AI工厂将继续采用英伟达领先的加速计算平台技术,英伟达的投资则将用于购买AI工厂的土地、电力和建筑壳体。

在生态建设方面,双方将测试并验证CoreWeave的AI原生软件及参考架构,以解锁更深层次的互作性,并将这些产品纳入英伟达的参考架构,向其云合作伙伴和企业客户推广。

而尤其引人注目的是,在合作中,除了向CoreWeave供应下一代Rubin平台和BlueField存储系统外,英伟达首次以独立形式供应了Vera CPU芯片。

此前,该CPU主要集成在Vera Rubin平台架构中,市场解读称,这或许意味着英伟达未来会单独销售数据中心CPU,与英特尔和AMD在这一领域展开新的竞争。

总体来说,通过合作,CoreWeave可以继续在第一时间上架英伟达的顶级芯片,提升自身算力服务优势。考虑到黄仁勋此前在达沃斯论坛现场宣称,GPU已供不应求,全线产品都在涨价,而存储、CPU更是进入了持续的涨价周期,双方的合作也有利于CoreWeave规避供应不足和价格大幅波动的风险。

而对于英伟达来说,除了财务和生态构建方面的回报外,建构自身的“外部算力池”,也有利于直接掌握算力分发权,在谷歌、微软、亚马逊等云服务巨头都在开发自研芯片并大举推向市场,与英伟达GPU同台竞技之时,这显然已变得更加重要。

相关合作宣布后,CoreWeave股价迅速走高,当日收涨5.73%,总市值489.9亿美元,上市以来上涨145.8%,但较去年6月的高点下跌了47.4%。而英伟达股价未获明显提振,当日收跌0.64%,今年以来股价基本持平,4.53万亿美元的总市值虽然仍高居全球第一,但较去年10月末突破5万亿美元时的高点,也下降了12.1%。

此前,两家公司股价走低主要受市场争议的“融资循环”和“AI泡沫”等影响。质疑声音认为,英伟达同时扮演着CoreWeave大股东、唯一供应商及重要客户的多重角色,其投资以交易的形式回流到自身财务报表,或涉及虚增营收和需求。而且,近两年来英伟达投资支出暴涨10倍,也引发了过度投资的质疑。

更令市场紧张的是CoreWeave激进的财务策略,该公司以GPU作为抵押,大举发债、融资,又用借贷资金建设数据中心、购买新的GPU。高杠杆、大额资本支出以及持续亏损,已让这家公司成为“AI泡沫预警”中的常客。

针对相关争议,黄仁勋也在彭博社的采访中回应称,公司投资只占相关企业未来基础设施总支出的一小部分,而且这些投资源于信心,也体现着英伟达对AI原生企业的算力资源支持。

“说这是循环投资简直荒谬。”黄仁勋表示。

此前黄仁勋也曾强调,英伟达所有的投资都与扩展CUDA生态有关,公司致力于与世界上最杰出的公司展开深度合作,包括获得股权份额,而这些公司通常是一代人才出一个的佼佼者。

在官方新闻稿中,英伟达和CoreWeave也重点强调了需求的旺盛和AI的宏伟前景。

黄仁勋称,AI正进入下一个前沿,推动人类历史上最大规模的基础设施建设,双方的合作将满足对英伟达AI工厂的巨大需求,而这正是人工智能工业革命的基础。

“人工智能只有在软件、基础设施和运营共同设计时才能成功。” CoreWeave联合创始人兼CEO迈克尔·因特拉托(Michael Intrator)表示,AI只有在软件、基础设施和运营共同设计时才能成功,而英伟达提供着成本最低的推理架构。

“这种扩大的合作凸显了我们在客户群中看到的强劲需求,也显示着人工智能正逐步投入规模化应用。”他表示。(作者|胡珈萌,编辑|李程程)

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

  •  

欧盟对X平台展开调查 重点评估Grok潜在风险

欧盟周一宣布,对美国富豪马斯克旗下X平台展开调查,以确定X是否对平台内置的人工聊天机器人在欧盟境内的服务进行了适当评估。 (法新社)

欧盟委员会周一(1月26日)宣布,对美国富豪马斯克旗下社交媒体平台X启动一项正式调查,重点评估X内置的人工智能(AI)聊天机器人Grok可能引发的风险。

Grok因允许用户通过输入“脱掉她的衣服”“让她穿上比基尼”等简单指令,对女性与儿童的图像进行色情化处理,而引起多国监管机构的注意。

欧盟负责科技事务的委员维尔库宁(Henna Virkkunen)周一发声明说,这项调查将确定X平台是否履行了欧盟《数码服务法》所规定的法律义务,或是把包括妇孺在内的欧洲公民权益当成平台服务的“附带损害”。

此次调查将评估X是否针对Grok在欧盟境内的功能进行了适当评估,并采取措施减轻相关风险。

维尔库宁强调:“未经女性和儿童同意制作的含有性内容的深伪图像,是一种暴力且不可接受的侮辱行为。”

X平台则提到它于1月14日发布的一份声明。声明称,X已限制Grok用户编辑图像,并根据用户所在位置,禁止位于“法律禁止管辖区”的用户生成穿着暴露的人体图像,但没有说明被禁的是哪些国家的用户。

欧盟此举可能会进一步激怒美国特朗普政府。此前,欧盟对美国大型科技公司的打压已引起特朗普不满,甚至招致他的关税威胁。

本月早些时候,英国媒体监管机构Ofcom也对X是否遵守英国网络安全法展开了调查。

  •