162026.4

Token用不完?AICodingBus让你的团队共享词元

哈喽大家好啊,好久没发东西了。这段时间一直在忙产品相关的工作,比较少分享技术或者开源方面的探索。

这几天遇到一个挺有意思的现象:好几个小伙伴跑来问我,能不能一起拼一个 GLM 5.1 的套餐来写代码。毕竟目前国内模型里,5.1 确实算最强的那一档。再加上 Claude 官方最近上线了 KYC(身份认证)策略,用它的服务得做身份验证,而且本身就屏蔽了国内用户——这让国内的小伙伴用 Claude 的成本越来越高。很多渠道可能都面临关闭的风险,于是大家又把目光投回了国产模型。

智谱 5.1 发布后反响确实不错,但让人不爽的是:官方把直接订阅 Coding Plan 的入口给关了。据说是因为算力紧张,做这个套餐本身也比较亏本,现在就搞成“放量”模式——有点像秒杀,一出来就被抢光。好多小伙伴想买都买不到,有钱花不出去的感觉。

我自己手上倒有一个 Max 套餐。之前做 Claude Code 深度教程的时候,很多小伙伴通过我的推荐去买了套餐,官方给了我一笔返现奖励,我用这笔钱买了 Max 套餐。之前上车的朋友应该没亏吧?😄

现在这个套餐我自己用得不多,主要还是在用 Codex(GPT 模型写代码)。我就想,既然我用量少,能不能把这个套餐分享出去?收点钱回回血也行,实在不行免费分享也可以。

正好有小伙伴来找我,想“搭车”一起用这个套餐。但问题来了:官方并没有独立的 API Key 专门给 Coding Plan 用。在智谱官网上,所有服务的 token 是混在一起的——我账户里还有不少余额,是用来调用其他模型服务的。如果把 key 直接交给小伙伴,万一(不是不信任)把我通用 API 的余额也消耗掉了,那就尴尬了。

有没有现成的方案?

我找了一圈,市面上确实有中转系统(比如 One API 这类),可以把海外 Claude、GPT、Gemini 的 token 转给国内用户用。但那种方案太重了,面向的是跨境卖 token 的场景。我这边就是几个熟人一起用一个套餐,没必要搞得那么复杂。

搜了一圈,没找到合适的。那就自己做一个吧——反正功能上也不难。

一个晚上从 0 到上线

昨天晚上,我开始用 Claude Code,连上 GPT 和 GLM,把我的想法讲了一遍。让它帮我梳理需求、出 PRD 文档,然后根据文档设计系统架构。接着我开启了 Claude Code 的 Ralph 模式(需要装个插件,用一条命令就能让 AI 一直跑,直到它认为自己完成了所有需求)。

我让它自己跑,然后我就去睡觉了。

今天早上起来验收,功能基本都实现了,但细节上还有些问题:UI 不够好看,一些交互逻辑需要打磨。于是花了一整天,跟 Claude Code 和 AI 一起把系统打磨完,下午快吃饭的时候上线了。

AI Coding 的真实体验

现在做一套系统确实非常快。我的流程很简单:让 Claude Code 出设计文档、实现文档,然后开始跑。

但花时间最多的阶段,不是“从 0 到 1”,而是 从 1 到 100 的精细化打磨。

从 0 到 1 基本可以无人值守,AI 自己就能搞定。但精细化打磨的时候,你必须盯着它,出结果后马上验证,给实时反馈。比如 UI 上哪里不对、交互逻辑怎么改、隐私安全怎么保障——这些细节在初始阶段 AI 是没法帮你做好的。

我一整天绝大部分时间都在做这件事:告诉 AI 哪里有细节问题,让它改,然后验证。这个过程需要实时互动,不可能完全放手。

之前有做产品的朋友跟我交流,说他们对产品的理解很好,想借助 AI 独立实现产品。但经过这一天的体验,我发现他们可能能做到 0 到 1,但很难做到 1 到 100。因为有些东西你根本不知道“需要有这个东西”——比如加密、数据库字段、算法逻辑。你不知道,就没办法让 AI 帮你做。

当然,我们做技术的人从 90 分到 100 分能做得到,但从 0 到 1 的想象力可能不如产品经理。所以最好是两种思维都有——或者像我们这样,一个人既懂技术又懂产品,还得懂点营销。

AI 让大家失业?我觉得可能有一半的冲击,但完全颠覆行业还远着呢。比如界面审美——你得让 AI 装上视觉、理解效果、具备审美,这几乎不可能。所以目前来看,人还是不可或缺的。

我做的东西:AICodingBus

回到正题。我做这个系统叫 AICodingBus(AI 编程巴士),所有小伙伴都是来“搭车”的。

· 共享自己的 token,或者搭车使用别人的 token。
· 平台本身没有任何收费项目,只做分享和限制功能。收费什么的大家线下(场外)自己解决。
· 目标是熟人之间的 token 共享,不是那种中转服务商。

使用流程很简单:注册账号 → 创建共享池 → 填入上游服务商的 API 地址和 Key → 生成邀请链接 → 审核通过后,使用者就能拿到平台提供的 URL 和 Key,放到自己的编程工具里直接用。

核心设计点:

  1. 额度分配:比如一个套餐 3 个人用(包括创建者自己),可以设置平均分配份额,避免一个人把所有人的额度都用光。
  2. 隐私保护:使用者只能看到自己的用量,创建者能看到整体用量,但看不到其他人的具体用量。
  3. 防坑机制:如果创建者收了钱,不能随便踢人(只有成员主动退出)。当然这防不了君子不防小人——创建者可以直接在官方层面删掉 Key。后续可以考虑加信任评分系统,让大家知道谁靠谱。

个人建议一个共享池不要超过 10 个人,五六个人最好,方便管理。

使用地址:https://aicodingbus.24×7.to

使用说明:https://www.bilibili.com/video/BV1MMd6BvEuF/

最后

通过这次体验,我觉得 AI 编程确实很高效,但也没有想象中那么“傻瓜化”。我做这个工具主要想解决日常开发中的小问题,没打算靠它盈利。

如果你也有 token 共享的需求,或者对这个工具有什么想法,欢迎在评论区聊聊~

有机会再和大家聊更多话题,拜拜!

19:50:41 已有0条回复

怪不得如此蹊跷,原来Hermes Agent涉嫌抄袭

最近大火的Hermes Agent和之前大火的openclaw存在核心理念的差别。Hermes Agent最核心的一项特征,是有非常先进的记忆,实现自进化。关注我公众号的小伙伴都知道,我在之前的两篇文章中提到过,Agent的记忆“进化”能力会成为一项重要课题,当时点到了Claude Code和EvoMap两个项目。而Hermes的爆火,正是这个方向上的一大突破带来的影响力。

然而,今天,开源圈却爆出惊天大瓜,Hermes Agent涉嫌抄袭EvoMap。虽然EvoMap的项目完全开源(MIT协议),然而Hermes的项目在核心“进化记忆”设计上,与EvoMap 100%重合,却通过1:1的重新发明概念、用python重写,来宣称自己的完全自主研发创新,在其所有材料中,没有提到一嘴对EvoMap的感谢。

这是一起引发全球AI圈震动的开源伦理事件。事情的焦点是中国AI创业公司EvoMap,公开指控硅谷明星AI项目Hermes Agent,系统性抄袭了其开源的自进化引擎Evolver。

👥 谁是当事人?
控方EvoMap:一家不到20人的中国深圳创业公司。创始人张昊阳(95后)曾是腾讯《和平精英》的技术策划,其核心产品Evolver是一个能让AI通过自我学习不断进化的“引擎”。

辩方Nous Research:硅谷知名的AI实验室,融资过亿美元,在开发者社区影响力巨大。其明星产品Hermes Agent因强大的“自进化”能力在GitHub上斩获超过8.5万星标,是当时增长最快的AI项目之一。

🕵️‍♂️ EvoMap的核心指控
EvoMap的指控主要围绕以下几个方面:

时间线高度可疑:Evolver的核心概念于2026年2月1日完全公开,而Hermes Agent推出核心自进化功能的时间在3月初,时间差仅有24至39天。

架构设计惊人雷同:EvoMap发布的技术报告指出,双方在多个核心模块上存在一一对应的同构关系:

- 10步主循环:虽然编程语言不同(Hermes使用Python,Evolver使用Node.js),但两者的核心进化逻辑步骤几乎完全一致。
- 三层记忆体系:双方都采用了“持久事实层+程序性记忆层+历史搜索层”的架构。
- 核心术语替换:多达12组核心术语被系统性替换,例如将“Gene”换成了“SKILL.md”。
- 其他细节:双方还实现了“任务完成后自动提取经验资产”、“周期性自我反思机制”等高度雷同的功能。
- 开源协议被漠视:Evolver采用的是宽松的MIT开源协议,唯一的“署名”要求未被遵守。Hermes Agent在7份公开发布的材料中,均未对Evolver进行任何形式的引用、致谢或标明来源。

🤔 双方回应与辩护
面对详尽的指控,Hermes背后的Nous Research团队做出了一系列备受争议的回应。

第一次回应:傲慢与删帖
其官方账号回应称:“我们的仓库2025年7月就有了。我们是先驱。删除你们的账号”,并拉黑了EvoMap成员。这条回应因态度傲慢且技术论据不足,很快被删除。

第二次回应:坚决否认
联合创始人Teknium随后回应:“我这辈子从来没有听说过这个人、他的项目……毫无证据地声称我剽窃了他们的作品,这是谎言”。

辩方的技术辩护

仓库创建更早:辩方强调其主仓库创建于2025年7月,远早于Evolver。

“独立趋同”:认为出现相似设计是“英雄所见略同”,底层逻辑借鉴了共同的学术框架(如ICLR 2026 Oral的GEPA框架),而非抄袭。

⚖️ EvoMap的反驳与影响
EvoMap随即进行了有力反驳,并采取了行动:

戳破“先发”时间点:EvoMap指出,辩方的主仓库长期处于私有状态,内容无法验证;而涉及争议的“自进化”功能仓库创建于2026年3月9日,明显晚于Evolver的公开时间。

捍卫架构原创性:EvoMap强调,即便底层有通用学术概念,但将10步主循环、三层记忆、经验沉淀等模块进行特定组合的创新,正是其原创性的体现,且这种特定的组合方式不应在短期内被“独立”复现。

“闭源”以示抗议:由于在本次事件中感受不到对原创者的尊重,EvoMap宣布将Evolver的许可证从MIT改为更严格的GPL-3.0,并将核心模块改为混淆发布,标志着该项目从开放走向了保守。

💎 事件反思
这起事件的核心已超越了“代码抄袭”的技术层面,它更像一面镜子,映照出AI飞速发展下的几个深层矛盾:

开源伦理的困境:当“借鉴”的界限变得模糊,尤其在AI“洗代码”(通过AI工具重写代码以掩盖来源)技术出现后,如何保护原创者的尊严和生存空间?

影响力悬殊下的“举证之难”:一个拥有数亿美元融资、8万星标的明星项目,和一个只有2000星标的初创团队之间,话语权的天平天然是倾斜的。即便证据确凿,小团队也面临巨大的发声与维权成本。

总而言之,这起事件最终在法律层面也许难有明确判决,但它在技术圈激起的涟漪,将持续拷问整个AI行业的创新伦理与合作底线。

这件事让我更加印证了我很久以前的一个想法。MIT协议的开源,只适用于有强大话语权的强势方,(甚至开源本身)并不适用于没有话语权的弱势方。开源本身是一种共识,但是随着这个世界越来越向草台班子发展,这种共识很容易被打破,因为这种“犯罪”毫无成本。开源本身,在今天,已经没有太大的意义,这是一个悲伤的结局,是某些道德水平差的劣币驱逐良币的结果。

前段时间,HappyHorse准备开源时,其实我已经有点开始担心,然后昨天收到消息,阿里取消了HappyHorse的开源计划。在今天这个中美竞争激烈的时刻,开源已经成为一种国家级竞争的武器,特别是对于优秀的技术,要不要开源,如何开源,已经成为一项与国家利益直接挂钩的重要战略问题。这让我对DeepSeek的v4版本也捏一把汗,deepseek已经作出了非常多理论上的贡献,驱动了glm-5、qwen-3.6等大模型的成功,新版本是否开源,可能得掂量着中美竞争的大势来执行。

EvoMap只是一个非常小的团队,人数不足50人。在与西方有背后资本支持的团队竞争时,很容易落下风。EvoMap走向闭源是对的,他们没有deepseek那样的资本力量托底,技术高度又无法企及国家层面的支持,只能通过自己的深入研究来进一步发展。EvoMap的团队称,Nous Research可以抄袭,但是无法理解他们团队的下一步路线。当EvoMap开始闭源,Hermes Agent就只能靠自己的理解发展,甚至可能就不发展了,因为他们可能能理解EvoMap关于自发展记忆的技术,但是无法理解EvoMap关于记忆共享的生态,甚至更进一步的发展。

18:46:37 已有0条回复
142026.4

含切镜视频生成提示词怎么写?这份标准结构格式值得收藏

你是不是看到过非常专业的视频生成控制的演示呢?在别人用AI生成的视频演示中,你能看到他们可以让AI完全按照自己的想法生成视频。今天,我就把这个秘诀教给你。

想要严格控制AI生成视频的整体过程,我们推荐一种标准化结构的提示词格式,这种格式向AI提供了全面的生成依据,因此,可以做到精准把控。

让我们先看一个案例。

下面这个视频是用通用语言描述生成的视频:

提示词如下:

健身房,大叔对着镜子努力举哑铃,表情狰狞。旁边肌肉男轻松拉起三倍重量,结果裤子崩开,露出卡通内裤。大叔憋笑到岔气,哑铃砸到脚,单腿乱跳撞倒一排蛋白粉罐,粉尘漫天,所有人变成“雪人”。

而下面这段视频的,则是用我们标准结构的提示词生成:

提示词如下:

镜头1(0-2秒)
运镜:固定镜头
画面:中景,平视,顶光。中年大叔在健身房镜子前奋力举哑铃,面部肌肉紧绷,嘴角抽搐,双臂微微颤抖。
音效:哑铃碰撞声。
---
转场:镜头跟随视线右移
---
镜头2(2-5秒)
运镜:缓慢推进
画面:特写,侧光,低饱和度。肌肉男轻松举起三倍重哑铃,裤子突然崩开,露出卡通内裤,周围人表情从惊讶到憋笑。
音效:布料撕裂声。
---
镜头3(5-8秒)
运镜:轻微晃动
画面:全景,俯拍,高对比度。大叔憋笑岔气,哑铃脱手砸到脚,单腿跳跃撞倒蛋白粉罐,粉尘弥漫,所有人变成"雪人",表情从痛苦到滑稽。
音效:哑铃落地声、罐子倒下声、粉尘飞扬声。
---
音效(0-8秒):健身房背景噪音

可以看到,AI遵循了我们提示词中至少90%的指令。

那么,一款标准结构的提示词格式是怎样呢?下面就是一份我们总结的标准提示词示例。

写实纪实风、自然光、低饱和、轻微颗粒感。(可选)
---
镜头1(0-3秒)
运镜:固定镜头,轻微手持感(可选)
画面:中景,平视,侧光。角色A(通过 mention 引用)坐在凌乱书桌前,台灯只照亮半张脸。
台词(角色A,低沉且疲惫):“又来了。”(可选)
音效:虫鸣声。(可选)
---
转场:硬切,跟随角色A视线方向(可选)
---
镜头2(3-6秒)
运镜:缓慢前推(可选)
画面:特写,俯拍,焦点从虚到实。桌上笔记本内页墨水晕开形成黑色圆点。
台词(角色A,压低声线):“这不对劲。”(可选)
音效:笔在纸上的书写声。(可选)
---
...(可包含更多镜头、转场,总时长控制在 8-15 秒内)
---
音效(4-12秒):雨声(跨镜头,按需添加)
音效(12-13秒):巨大的雷声(跨镜头,按需添加)
---
**强制音频约束**:禁止出现任何音乐内容(包括但不限于背景音乐、配乐、歌曲、BGM、持续哼唱、乐器演奏),仅允许“音效 + 说话声”。

让我们来详细拆解一下:

  • 开头:提供整体视频的基础信息,这里提供基础的视频风格。
  • 镜头:
    • 时间跨度
    • 运镜:这里需要注意,我们在镜头内先指出运镜,这让AI可以更好的遵循指令,经过多番测试,生成的视频效果更好。
    • 画面:包含景别、光影、构图等镜头设计。然后才是对故事情节的具体展开。
    • 台词
    • 镜头音效
  • 镜头间转场
  • 其他镜头
  • 跨镜头音效:提供了该音效的持续时长
  • 其他提示信息

这份提示词所包含的信息非常具体,这种具体的指令,可以让AI更加可控的按照我们的需要去生成视频。

以上就是这份含切镜视频生成提示词标准结构格式的秘诀要领。赶快到你的视频生成中去试试吧。

21:23:15 已有0条回复
122026.4

可怕的事实在于,AI没有增加任何新的需求,而是用算力顶替人力,提升效率。但是,这背后存在巨大的安全隐患,那就是能力的中心化,所带来的风险集中。以前,企业雇佣工人来解决生产力问题,把能力分散在员工个体身上,当一个员工出现问题(例如生病、状态下滑等),可以通过可插拔式的招聘新员工来替代,这种去中心化的能力组合模式,是过去企业管理的底层基石。但是,随着用AI来顶替人类员工的盛行,能力的过度中心化,会企业带来巨大效率提升的同时,也买下巨大的隐患。当单一AI的能力不足以支撑企业的业务需求,或者遇到算力的降智时,企业必须承担这种中心化唯一节点退化带来的风险和损失,再也无法通过插拔式招聘替代来解决问题。也就是说,将企业的管理基石切换到AI模式后,企业不再有能力管理局部细节的风险,而是与AI和算力一荣俱荣一损俱损。

11:33:07 已有0条回复
102026.4

这个世界的另一种形态是信息,物质、能量、信息在不停的相互转换。但是人类自身结构的局限性,并不能完全理解超出自身接收信息的能力。宇宙的信息穿过人们的肉体,我们却对这些信息一无所知。于是,有人给它们取了个名字,叫“暗物质”,说它无处不在。世界上哪有那么多物质,只是存在的另外一种形式罢了。

22:31:26 已有0条回复
082026.4

AI让我消失的这半个月

Hey,大概半个月没有更新公众号了,不知道小伙伴们最近过的怎么样。这半个月我在集中开发一款AI漫剧制作平台 kuaimanju.com,因此没有时间更新公众号文章。今天,我同步更新了播客,播客Robust已经有快两年没有更新了,感觉已经失去了节奏。同样,我的博客也长时间没有更新,一方面是没时间精力,另一方面是不知道有什么内容是必须用文字来表达的。

过去一段时间(1年左右),我尝试了多个idea,我在思考自己的定位,在思考AI对于我们个人,有什么样的启示。在AI时代,信息的流速会越来越快,人如何在有限的时间里,完成自己想做的事情?哪些想法是应该放弃的,哪些是应该持续保持去做的?这对我来说,都值得去思考。人对时间的把控能力,随着AI的到来变得越来越弱,这和人们对AI最初的理想,背道而驰。但是,我们对环境的抱怨没有任何裨益,适应环境,在匆忙的时间里,把自己认为值得花时间去打磨的东西做好,或许就是一种和AI对抗的方式。

在这半个月里,我沉浸式的进行vibe coding,完成了kuaimanju.com平台。在2年前,我从腾讯离职,离职聚餐的时候,前同事给我留下了一个问题:AI什么时候能帮我们写代码?今天,这个问题得到了很好的回答。世间事事难料,我们作为普通人,在时代的浪潮前,最大的救赎就是逐浪而行。

我记得还没离职时,BG搞了两次技术的交流会,当时我们聊到了AI编程,我当时的发言还是围绕RAG技术,认为依靠这个技术应该也可以通过工程来实现AI编程的一些能力。谁能想到,短短两年时间RAG已经成为一门很少被提及的技术。现在,连“上下文工程”都是一个落伍的词,最近,只有聊“Harness”才是时髦的。

从对“AI帮助我们写代码”感到有些难以理解,到“没有AI写不了代码”的今天,只有短短两年,软件行业正在被完全重塑,甚至软件本身,也在迎来2.0时刻,软件的交互,正在从通过鼠标、键盘的交互模式,向说话、感官的交互模式转变,这种转变很大程度是因为AI所带来的信息兼容性得到的。以前,人们只有通过手工的方式,才能为机器提供准确的指令,但AI的出现,让人们开始不再需要直接向机器提供准确指令,而是只需要描述和引导。这使得在2015年,绝大多数的产品经理职业的人们,开始转型做开发,甚至有些小企业的老板亲自下场做开发。

这种趋势被Anthropic敏锐的捕捉到。在Manus爆火之后,他们就猛然看到了这种必然的趋势,因此,它们在一种莫名其妙的动力驱使下,将所有的宝押在“Coding模型”这条道路上。当时我觉得莫名其妙,因为openAI们都在追求真正的“大”模型,也就是通用模型,而Anthropic为什么要专注在代码上?难道是做通用模型太难了,所以先退而求其次?

现在,我们已经看到了。Anthropic通过claude code这个拳头产品,已经构建起了一整套的AI生态,今天,它的营收已经超过了openAI,而这种收益,还是在它严格要求安全的前提下,当然,还有一点,令人不爽的,在对中国的高强度封锁的前提下。前几天,claude code的源码泄漏出来,但是,这不仅没有让它的护城河决堤,相反,人们看到了它稳固的AI发展前景。

Claude code这款产品,虽然一开始是一个极客类型的产品,只有CLI界面。但是,我看到太多不同行业的人,在听说它的强大之后,以身试险,并通过claude code,认识了“AI真的能干活”这个新世界的大门。现在,很多人接触openclaw,开始“养虾”,他们刚接触的时候,会惊讶于,AI还能“真的做事”,而实际上,在那之前,claude code / codex 已经杀疯了。
当AI开始真的做事的时候,作为有贪恋的我们,就会开始尝试让我们处于高强度的多线程并行状态中。

我以前写代码会进入心流状态,写代码写到忘记现在是上午还是下午。但是,在拥有AI之后,我开始同一时间,处理多个项目的代码,在不同的编程窗口之间来回切换,确认当前的编程进度。AI并没有让我轻松下来,而是让我快起来,快的停不下来。

于此同时,我会不舍得放弃任何一个想法,因为我已经有AI了,它可以帮我在半个小时里面给一个想法做出一个原型效果。我会想,既然已经开始了,看到雏形了,那我怎么舍得不把它做完呢?于是,我就会开始并行做多个项目,有了想法就会去尝试做一个新的网站或小程序。

然而,随着开发进入深水区,进入细节逻辑的补充,细节UI的调整优化,AI就会开始慢下来,而我就开始着急。同步写多个项目的情况下,我会在多个编程进度窗口之间切来切去,看着还在处理的进度,有些焦虑。

这就是现实。AI并没有让我们感到轻松,并不是AI本身的问题,而是我们自己本身的问题。当我们手上有了“锤子”,我们就会去拼命找“钉子”。在不停的寻找中,我们也慢慢丢失了自己最开始的理想:让AI去做,我就解放,可以去喝喝茶,逛逛春天。

所以,我开始对自己说:停下来吧。

虽然用AI来开始一个产品的0-1非常容易,可是AI现在只能做到80%,而剩下的20%是最艰难的部分。更艰难的,是产品100%以后,如何让产品让更多人看见,如何让更多人满意。

当编程,不再是我的全部工作,我就需要花更多时间去关注如何让产品被看见,如何让产品被看好。这完全超出了我以往的经验和能力范畴。虽然现在AI非常强,但是,当我们进入自己不熟悉的领域时,我们并不知道如何让AI替自己在这个新领域做事。所以说,AI并不能真的让人无所不能,在用AI成为强者之前,我们必须先成为这个领域的专家。

但是,好在,我们有AI,可以快速入门一个领域,让我减少进入这个领域的门槛。做市场,做营销,做内容推广。这些以前并不在行的事,在AI的辅助下,我做的仅仅有条。虽然算不上很好,但是不会毫无头绪。

在AI这个领域,我从2024年初,就开始关注除了AI智能之外的另一个领域,就是AIGC。在2026年的今天,AIGC似乎已经很少人提了。但是,今年上市的minimax之所以在股价上表现好于GLM,更多的原因就在于minimax在AIGC领域还有着巨大的市场份额。对于普通人而言,AIGC意味着AI时代的艺术创作、哲学思考和赛博文学。

在B站上,我们可以看到一些非常了不起的作品。这些作品用AI完成,它们不是什么影视作品,不讲究镜头表达,它们只在乎“思考”这件事。它们思考,AI对于人类的认知、存在、未来进行思考。它们应该被当作艺术品,或者文学作品放起来。

在AI时代,每一个普通人都可以通过AIGC作品来进行表达。这种表达的形式,往往就是我们熟知的“影片”的形式。人类的表达是无穷无尽的,从人开始拥有语言开始。没有什么是可以遏制人类的表达欲的。只不过,不同的时代,人类的表达形式在不停的变着,落伍的表达形式,无法让更多人看到,新潮的表达形式,会进入更多人的视野。这也就是为什么,我选择在今年这个特殊的时间节点,仍然投入完成kuaimanju.com 这个项目的原因。

去年(2025)6月份的时候,AI漫剧这个赛道开始突然火热。当时已经有一些沙雕漫剧很火了,比如“虾仁”系列的,那个时候,“解说漫”开始出现,这种模式用AI很方便制作,github上还出现了moneyprinter这样的项目。但是到了年末和今年初,平台开始突然收紧,AI漫剧开始走向精品化,4月1日,广电关于漫剧的新规施行,整个行业真正进入新阶段。

我认为这对真正有表达欲,想要通过作品传达自己思想的创作者是好事,因为平台和官方已经为这样的创作者扫除了市场上的干扰因素。而AI的成熟,也为创作者们带来了更便捷的制作路径。这可能是对创作者们来说,最友好的时候。随着AI剧成为一种重要的,有规范的内容创作形式,它将挤压传统的创作形式,例如以前鬼畜是一种非常流行的创作形式,而现在,AI剧会替代它,成为新的流行,创作者们会依赖这种形式的内容来表达,当然,具体表达的内容可以五花八门,不一定全部都是正能量,但是,不可否认,一旦一种表达形式成为主流时,传统的表达形式的市场就会变小,就像我的博客、播客,甚至公众号,这些表达形式,都在慢慢像艺术品一样,虽然看上去很“香”,但是看的人很少。

当然,对于一个创作工具而言,就像Cursor一样,更像是一个壳,而不是一个颠覆级创新。壳就应该有壳的态度,所以,我在开发kuaimanju.com时,既尽可能的追求极致的贴近类似即梦这样的工具的原生能力,又持开放态度,让用户可以与其他平台对接打通。我想,一个壳,重点不在于本身能力有多强,而在于对这个领域的流程、特征的契合,这也就是Harness的思想。

我写这篇文章,不是为了介绍这个新产品。我只是在回顾这半个月时,绕不开这个沉浸式vibe coding过程中的产出。随着我从开发人员的身份转变,我也开始审视我应该表达些什么。过去很长一段时间,我输出的内容把注意力集中在面向开发者们表达,“工匠精神”“做T型人才”“追求代码的极致”,这些曾经引以为傲的。如今,我本身已经脱离了一半的开发,我很难在输出技术层面的原理性内容。写作,往往逃不出“太炸裂”“天塌了”这类博眼球流量的宿运。所以,我开始思考,我是否需要继续写作,或者,我并不需要写更多的干货,而是回归写作的初衷——表达。

人类需要表达。

这里的表达不是输出干货,不是追求“有用”,而是一种近乎无用的自我刻画。这也是博客时代最初的模样。世事无常,大肠包小肠,九转回肠,又转回到最初的模样。在这个AI输出的“有用”内容比普通人更专业、更全面、更结构化时,人们就可以回到最初的表达,向世界表达:我是谁,我是怎样?所以,我以后会同步博客、公众号的内容,不再输出所谓干货,把自己真正所想所思记录下来,回归最初。

当AI照进现实,照进城市的高楼之巅,照进中国的乡村田间,我们这一代人,共赏这一轮“新月”到来。

22:10:24 已有0条回复
252026.3

普通人,2分钟了解如何上手制作AI漫剧

很多人都想用AI做漫剧,但往往卡在“脸不统一”“分镜没逻辑”“配音对不上”这些地方。其实只要把流程拆成剧本→拆解→制图→动效→后期→发布六个环节,用对工具,普通人也能在几分钟内搞懂全流程,直接开干。

下面我们就按这个路线走一遍。

第一步:剧本挑选或创作

漫剧的起点永远是故事。你可以选现成的爆款小说短篇,也可以自己用AI写一个。

  • 如果已有文本(小说/段子):直接复制精华段落,控制在500字以内,适合做成1-2分钟漫剧。
  • 如果需要创作:用AI帮你生成一个“强冲突、快节奏”的微型故事。

推荐工具

  • DeepSeek / Kimi / ChatGPT
    提示词参考:“帮我写一个都市异能类漫剧剧本,时长1分钟,包含3个角色:男主、反派、路人。开头要有悬念,结尾留钩子。用分镜形式写出5-6个场景,每个场景包含画面描述和台词。”

第二步:利用AI对剧情进行分析、划分章节、提取角色、提取场景、创建分镜、创建提示词

这一步是“工业化”的关键。不要自己凭感觉分,让AI帮你结构化。

操作流程

  1. 把剧本粘贴给AI。
  2. 要求它输出:
    • 章节/场次划分(例如:第1场-街头对峙,第2场-主角觉醒)
    • 角色清单(姓名+外貌关键词+服饰+气质)
    • 场景清单(地点+时间+氛围)
    • 分镜表(每个镜头的画面描述、景别、人物动作、台词)
    • 绘图提示词(将每个分镜的画面描述转成AI绘图工具能用的英文/中文prompt)

推荐工具

  • DeepSeek / Kimi / ChatGPT
    提示词参考:“基于以下剧本,请输出:1. 角色设定表(含外貌关键词);2. 场景设定表;3. 分镜表(镜头号、画面描述、景别、台词);4. 为每个分镜生成一段AI绘图提示词(中文,格式:[主体]+[动作]+[环境]+[光影]+[画风])。剧本如下:……”

这样你就得到了一份可直接执行的“制作清单”。

第三步:用角色图 + 场景图 + 提示词 → 镜头关键帧图

这一步的核心是保持角色长相一致,并把角色放到对应的场景里。

方法有两种

  • 方法A(推荐新手):先单独生成角色定妆图,再用“图生图”把角色融合到场景中。
  • 方法B(效率优先):直接用“文生图”,在提示词里同时描述角色和场景,但需要固定种子值或使用参考图。

推荐工具

  • 即梦AI (Jimeng)
    • 先用“文生图”生成角色半身像(正面、侧面各一张),保存作为“参考图”。
    • 生成场景时,上传角色参考图 + 场景描述,选择“保持角色一致”模式,直接输出角色在场景中的关键帧。
  • Midjourney
    • 适合对画质要求高、愿意调参数的玩家。通过 --cref 参数引用角色图,保持面部一致。

实操要点

  • 每个分镜生成2-3张备选,选最符合构图和情绪的一张作为“关键帧图”。
  • 注意景别:特写、中景、远景都要有,剪辑时才不单调。

第四步:关键帧图 + 提示词 → 分镜视频

把静态的关键帧变成动态视频,时长一般3-5秒/镜头。

操作
上传关键帧图,输入动作提示词(例如:“镜头缓慢推近,角色微微皱眉,衣角被风吹动”),让AI生成短视频。

推荐工具

  • 可灵AI (Kling)
    • 动作幅度可控,微表情自然,支持“图生视频”+“运动笔刷”指定运动区域。
  • 海螺AI (Hailuo)
    • 适合有大范围镜头运动(推拉摇移)的场景,画面稳定性好。
  • 即梦
    • 即梦是字节旗下的创作平台,最新的Seedance2.0是业界最先进的视频模型。

注意

  • 对话场景尽量只生成“微动”(眨眼、呼吸、嘴部微张),后面用对口型工具替换嘴部,效果最自然。
  • 生成后如果画面闪烁或变形,换一张备选关键帧重新生成。

第五步:后期剪辑、配音、配乐等

把所有视频片段、配音、音乐、音效合成成片。

流程

  1. 配音:根据台词生成音频。
  2. 对口型:把音频和角色说话的视频对齐,AI自动修正嘴型。
  3. 剪辑:按分镜顺序排列视频,根据配音节奏剪掉多余部分。
  4. 加字幕、BGM、音效(脚步声、环境音、特效音)。
  5. 调色:统一整片色调,增强氛围。

推荐工具

  • 剪映 (CapCut)
    • 集成配音、对口型(需更新至最新版)、字幕、音效、调色,一站式完成。
  • 即梦AI / 可灵AI
    • 如果剪映的对口型效果不满意,可以用这两个工具单独做“图生视频+对口型”,再把视频导入剪映剪辑。
  • ElevenLabs(可选)
    • 如果你追求顶级情感配音,可以先用ElevenLabs生成配音,再导入剪映。

第六步:挑选适合的平台发

漫剧的受众在哪里,就发到哪里。

平台最高分成特色适合谁
抖音/红果90%-95%IP库最大、流量最大、政策最全有成熟制作能力的团队
快手90%可灵AI技术支持、创投计划愿意深度绑定AI工具链的创作者
腾讯95%-160%小程序流量池、超额分成擅长小程序投流的团队
B站80%+100%制作成本二次元用户精准、社区黏性高男频玄幻、女频甜宠类内容
爱奇艺100%会员激励分成、长视频渠道追求精品化、系列化的创作者
掌阅泡漫保底+利润分成一站式生成工具、IP库个人创作者、小型工作室
知乎未明确图文社区转型、知识类漫剧擅长知识科普、情感类内容的创作者

发布小技巧

  • 封面用最炸裂的一帧 + 大字标题。
  • 前3秒必须有悬念或冲突,否则划走率极高。
  • 发布时带上 #AI漫剧 #AI动画 等标签。

完整工具列表(按流程分类)

环节推荐工具
剧本创作/分析DeepSeek、Kimi、ChatGPT
角色/场景生成即梦AI、Midjourney
视频生成可灵AI、海螺AI、Luma
配音/对口型剪映、即梦AI、可灵AI、ElevenLabs
剪辑/后期剪映
发布平台抖音、快手、B站、小红书、YouTube

写在最后

这套流程看起来环节多,但每个环节都有对应的AI工具帮你分担。第一次做,可能会花上半天;等你把提示词模板、角色图库都固定下来后,从剧本到成片,1-2小时出一集完全没问题

关键是先跑通一遍——哪怕只有3个镜头,先做出第一个作品,你就能体会到“AI工业化生产”的爽感。然后就可以批量复制了。

现在,挑一个你喜欢的故事,按这六个步骤走一遍吧。

22:06:01 已有0条回复
232026.3

大面积裁员?AI恐慌下,资深程序员和文科生的大利好

这几天,朋友圈被“裁员”刷屏了。阿里、字节、网易,连一向岁月静好的 B 站也没能幸免。更夸张的是,有的城市、有的业务线是整锅端,直接清零。

消息一出,评论区立马炸了锅。大家的第一反应惊人的一致:“完了,AI 编程把程序员干掉了。”

乍一听,这逻辑简直完美。程序员开发了 AI,AI 学会了编程,然后反手把程序员送回了家。这不仅是“教会徒弟饿死师傅”,这是“师傅亲手造了个灭霸,一个响指把自己弹没了”。

事实真的这么“黑色幽默”吗?真相或许比我们想象的更复杂,也更刺激。

今天,我们不聊焦虑,只聊逻辑。我想和你深入聊聊我对这场变革的几点观察:

  1. AI 确实在淘汰工作,但每个被淘汰的行业,都必须留下一批“古法手艺人”。
  2. 文科生,即将迎来属于他们的“黄金时代”。
  3. 世界正在被重构,从农村到城市,从地球到星辰大海,每个普通人都要做好“战斗”的准备。

这或许是未来 30 年里,最深刻的一次社会重组。

01 AI 大裁员?程序员别急着哭,先看看裁的是谁

我们先来拆解第一个幻觉:AI 真的能完全替代程序员吗?

作为一个天天用 AI Coding(AI 辅助编程)工作的“老码农”,我的亲身体验非常分裂。一方面,我承认 AI 写代码的能力确实炸裂,像 Claude Code 这样的工具,几秒钟就能撸出一个我之前要敲半小时的函数。但另一方面,我敢断言:如果你完全不懂编程,拿着 AI 去开发,那无异于让一个不会做饭的人拿着五星级酒店的菜谱去开餐厅。

你肯定会翻车。因为你连“盐少许”里的“少许”是多少都不知道,你甚至分不清什么是“煎炒烹炸”,什么是“溜焖炖煮”。

AI 在写代码时,它的视角是点状的。它像一个记忆力超群但毫无全局观的新手,只能看到你当前打开的这一个文件。它无法像资深程序员那样,脑子里有一张网状的逻辑图,能预判这个修改会在哪个角落里引发雪崩式的 Bug。

被淘汰的,是那些“只会拧螺丝”的人。

以前,一个团队里需要大量的执行层员工:写基础文案的、修图的、做简单增删改查的程序员。他们的角色本质上是“人肉 CPU”,负责把架构师的脑图翻译成具体的代码或文档。现在,AI 把这个“翻译”环节直接吞掉了。

但这恰恰意味着,懂架构、懂业务、懂底层逻辑的“古法手艺人”变得无比珍贵。

网上有人说:“你看,连 Claude Code 团队自己都在用 AI 写代码!” 这句话只说对了一半。真相是:Claude Code 团队里坐满了这个星球上最顶尖的工程师。他们是用“工程师的思维”去驾驭 AI,把 AI 当成一个不需要休息、手速极快的实习生来用。他们脑子里先有了完美的工程蓝图,然后指挥 AI 去填砖加瓦。

所以,现在的裁员潮,与其说是“AI 替代人”,不如说是“市场环境倒逼业务收缩”,而 AI 恰好给了老板们一个“顺水推舟”的理由。

以前一个业务线养着几百号人,现在老板一拍大腿:“有了 AI,我留几个核心架构师,带一群 AI 不就行了?” 于是,那些业务边界模糊、投入产出比低的“边缘业务线”就被整锅端了。

与其说 AI 裁掉了程序员,不如说 AI 裁掉的是“伪需求”和“低效产出”,以及那些被AI顶替掉的功能。

02 文科生的逆袭:从“弱势群体”到“话语权操盘手”

如果说理科生(程序员、工程师)正在经历一场阵痛期的“洗牌”,那接下来我要说的,可能会让无数文科生热血沸腾。

风水轮流转,这次转到了文科生的门口。

过去几十年,在中国的就业市场上,文科生的处境确实有点尴尬。我记得我高考那会儿,文科生人数甚至比理科生还多,毕业后竞争压力巨大,“文转码”甚至成了一条热门赛道。但到了 2026 年的今天,当 AI 能写论文、能搞研究、甚至能超越硕士生做基础科研时,理科生那些“表层技术技巧”的光环正在褪色。

那么,AI 时代,文科生的价值在哪里?

答案是:当技术不再是门槛,讲好故事就成了唯一的壁垒。

现在的中国,正站在一个十字路口。我们急需建立自己的话语体系,急需向世界输出属于中国的叙事。这不再是“基建狂魔”或“世界工厂”的标签能解决的问题,而是需要深入到历史、哲学、艺术、政治的层面。

历史,是我们的底气。
中国几千年的历史底蕴,不是一句“文明古国”就能概括的。怎么把“郑和下西洋”讲出比“哥伦布发现新大陆”更高级的和平逻辑?怎么把“天下大同”的理念,包装成全世界都能听懂的人类共同价值?这需要历史学家的深度,更需要传播者的技巧。

政治,是我们的路线。
西方世界对中国的误解,很多时候源于“话语隔阂”。我们坚守的马克思主义道路,在别人的语境里可能被简化为几个标签。如何拆解这些偏见?如何用西方的逻辑去讲中国的故事?这不是背几句口号就能做到的,这需要深厚的政治学素养和跨文化的沟通能力。

文化,是我们的武器。
以前我们推孔子学院,说实话,有点像“精英层的自嗨”,不够接地气。但现在不一样了。有了 AI 的加持,普通人都能成为文化大使。

举个例子:你一个人,想拍一部《山海经》的预告片,放在 YouTube 上。换做十年前,这需要几百人的特效团队,上亿的资金。但现在,你只需要一台电脑,几个 AI 工具,就能生成媲美好莱坞视觉效果的短片。

当你能用《山海经》里的“刑天”,对标西方的“战神”时;当你能用“大禹治水”的集体主义精神,去对冲“诺亚方舟”的精英逃亡时;当你能用 AI 生成的视频,让老外直观地感受到那种东方美学时——我们争夺的,就不仅仅是流量,而是全球范围内的话语权和定义权。

过去,美国用“英雄主义”征服了世界。今天,我们是否可以用“集体主义”、“和而不同”的理念,借助 AI 的力量,去重新书写世界的规则?

这,就是文科生的时代机遇。

03 更大的棋局:从“内卷”到“星辰大海”

如果说职场洗牌和文科生崛起只是内部调整,那接下来我们要聊的,才是真正决定人类命运的“大棋局”。

站在 2026 年,人类文明的目标里,多了一个此前只存在于科幻小说中的词:星辰大海。

中国承诺 2030 年载人登月,马斯克在疯狂推进火星移民和太空算力中心。这不仅仅是科技的竞赛,更是人类文明走向的“路线之争”。

马斯克做的两件事,其实代表了两种截然相反的哲学:

  • 去火星:代表“向外探索”。既然地球资源有限,那我们就把文明的种子撒向宇宙,只要种族延续,哪里都是家。
  • 建太空算力中心:代表“反哺地球”。我们向外走,是为了更好地解决地球上的问题,把太空的资源(能源、算力)输回给母星。

这像极了《三体》里的“宇宙社会学”照进现实。而在这个宏大的叙事里,AI 扮演着不可替代的角色。没有 AI 的辅助,人类无法在未知的深空中做出有效决策,无法管理庞大的太空生态体系。

AI 是人类迈向星辰大海的“入场券”,也是我们审视自身的“镜子”。

04 无处可逃:AI 正在渗透每一寸土壤

聊完星辰大海,我们不得不回到地面。因为这场变革,不仅发生在硅基芯片里,也发生在中国最深的农村泥土里。

今年一月份的政府工作报告,在“十五五”规划里明确提出了“在农村应用 AI”。很多人可能觉得这只是一个红头文件,离自己很远。但如果你真正去过现在的农村,你会发现,农村对科技的接受度,远超城里人的想象。

我爸,一个六十多岁的农村老头,现在每天刷抖音,用豆包来做图和视频,甚至用来识别地里的庄稼的病害。以前的农村是用稻草人赶鸟,现在是用电子感应设备。

一旦 AI 落地到农业,带来的变革将是颠覆性的:

  • 生产自动化:AI 控制无人机播种、施肥、打药,精准到每一寸土地。
  • 养殖智能化:AI 监控猪牛羊的健康状况,提前预警疾病,优化饲料配比。

这意味着什么?意味着未来的农民,不再是“面朝黄土背朝天”的体力劳动者,而是“坐在家里操控无人机群和养殖系统”的农业工程师。

在时代的洪流面前,没有任何一个角落可以让你“隐居”。

30 年前的人如果穿越到现在,他连医院都进不去,因为他连现在的挂号都不会;他连公园都逛不了,因为入园预约他都不会搞。这不是在说技术不好,而是说旧的生产方式,无法在新的社会机制里运行。

老板不会允许你既用打字机写策划,又用 AI 写策划。他只选择那个更快的。这就是当新的生产方式出现之后,无法兼容就的生产力的时代洪流。你如果不切换到 AI 的生产方式,你就出局。

结语:保留一块“自留地”,但别忘了换“装备”

聊了这么多,从大厂裁员到文科生崛起,从星辰大海到农村变革,我想说的核心其实很简单:

AI 的变革是排他的、不兼容的,我们每一个人都要随着时代进步。

我们无法用 30 年前的认知去理解今天的社会,也无法用 30 年前的工具去参与今天的竞争。我们每个人,都被迫卷入这场由技术主导的生存游戏。

但我想说,这并不是一场让人绝望的“内卷”。

我们可以在脑子里保留一块“精神自留地”,去怀念那些“古法手艺”,去传承那些无法被数字化的温情。但在实际的社会活动中,我们必须学会使用新的工具,遵循新的规则。

这或许就是未来 30 年,我们每一个普通人必须面对的宿命:一边在精神世界里怀旧,一边在现实世界里战斗。

好了,今天就聊到这里。在 AI 时代,作为普通人的你,正在经历什么样的变化?你是选择拥抱,还是观望?欢迎在评论区留言,我们一起探讨。

20:58:37 已有0条回复
152026.3

避免浮躁,普通人“养龙虾”的十条建议

虽然养虾已经成为时髦,但是,我还是希望你保持客观冷静,不要为了追求时尚,而过分的掏太多钱。我知道,我们所有人都认为这是趋势,“龙虾”已经是2026年最火的AI,但是,作为在AI领域深耕了3年多的普通人,我还是斗胆给出我自己的一些建议。这些建议条条中肯,不走极端,不过度消极,保持平和心。也希望这些建议,可以帮助你,养好自己的龙虾,让它成为你真正的帮手,而非负担。

写这篇东西之前,我去翻了一下最近的新闻。OpenClaw在GitHub上的星标已经超过了31万,英伟达的黄仁勋说这是“我们这个时代最重要的软件发布”。但同时,国家信息安全漏洞库(CNNVD)统计,自2026年1月到3月9日,共采集OpenClaw漏洞82个,其中超危漏洞12个,高危漏洞21个。

你看,就是这么个情况——一边是火得不行,一边是坑也不少。所以我才觉得,有必要把这些话说出来。

01 在开养之前,学习“养殖”理论

说得直白一点,就是你先要掌握一些基本的AI知识,AI应用是怎么回事。你不需要懂太多关于它的技术,但是,你需要对它的原理有一定的了解,这样才能有一个基本的认知。这跟在田里养龙虾是一样的,如果你连龙虾会打洞,你得给田坎打一层水泥,这样最基本的知识都不清楚,你下下去1万块的龙虾,最后上来可能100块都不剩。

那么,有哪些基本的概念你需要搞清楚呢?

OpenClaw和Claude Code之类的工具的区别

OpenClaw就是“龙虾”本虾,是一个开源的、本地优先的AI任务执行引擎,能直接帮你干活——处理文件、调用API、操作软件。而Claude Code更像是一个“编程助手”,专门帮你写代码、改bug。两者可以配合:让OpenClaw去调用Claude Code

为什么龙虾这么费tokens

龙虾每次执行任务都要调用底层大模型。一个新闻监控任务运行8次消耗约180K tokens,花费3.68元。如果每小时运行一次,月成本就是330元。

龙虾如何操控电脑

靠读文件、写文件、模拟点击这些操作。部署在自己电脑上,数据最安全;电脑关了,虾就睡了。想要7×24小时在线,就得部署在云服务器,但是云服务器没有本地电脑环境中的软件,“虾”又有点瞎。

OpenClaw的四个核心角色

Gateway(前台):接收微信、飞书等消息,统一转换格式。Agent(项目经理):拆解任务,调用大模型做决策。Tools+Skills(手脚+手艺):Tools是基础操作能力,Skills是用工具完成具体任务的方法。Memory(随身笔记本):将偏好、历史存在本地,下次直接“记起”

Token、API、AK是什么意思

Token是龙虾的吃食、饲料,是龙虾的命脉。API是你家到超市的“路”,是给龙虾送饲料的快递车。AK(API Key)是你给龙虾买饲料的超市会员卡密码,有了它超市才给快递发货。

什么是Skills

Skills是给龙虾装的“技能包”,比如搜索网页、发邮件、操作浏览器。ClawHub官方市场有超过1.8万个Skill,社区还有上千个。建议先装安全审查、联网搜索、浏览器自动化这三类

单Agent vs 多Agent

单Agent够日常用。多Agent适合复杂场景:不同Agent分工协作,一个管文件,一个管邮件,一个管研究。但多Agent会消耗更多IM额度,因为网关每分钟会ping一次所有Agent做快照

02 选择合适的“品种”,不是每个人都适合“本地虾”

如今,国内已经出现了10种以上的“本地虾”品种,有来自腾讯、阿里、字节的,也有来自华为、讯飞的,开源社区也有一些。那么,如何挑选就成了一个问题。

根据部署方式的不同,我把它们分成两类:

本地部署的(肉身上帝):代表有智谱AutoClaw、腾讯QClaw、腾讯Work Buddy。这些虾养在你自己的电脑里,能直接操控你的文件。优点是能力强,缺点是风险高,电脑关了它就睡了。

云端部署的(灵魂出窍):代表有MaxClaw、ArkClaw、KimiClaw。这些虾养在厂商的服务器里,24小时在线,安全由平台兜底。优点是随时待命,不乱动你本地文件,缺点是碰不到你的本地数据和软件。

那么怎么选?我的思路就两条:

1)如果为了打通本地IM工具(例如微信、QQ、飞书),就选最方便的本地虾(含本机和云端)。腾讯QClaw正在内测,如果能直接在微信里用,那确实是下一代交互入口。飞书的用户可以在智谱AutoClaw和字节ArkClaw里面挑一个顺手的。

2)如果为了极度自主,强调数据、隐私,就选本机装“始祖虾”OpenClaw。但你要有心理准备——原版OpenClaw需要自己部署、自己维护,而且安全配置得自己操心。有用户反馈OpenClaw代码质量不高、bug一堆,需要投入一定时间精力去调配置。所以,如果你选这条路,建议买台二手的备用机专门养虾,别在主力的工作机上折腾。

至于开源虾,只适合开发者们自己研究,不适合普通人。本地虾选哪个品种,则要看各个虾是如何打通本地通信工具的,比如打通微信、QQ,有没有风险。本质上,我们就是看中了和龙虾的沟通方式,才去养的,失去了友好的沟通方式,龙虾丢沟里都没人要。

有个评测数据值得参考:在实测中,MaxClaw能做到“一次性成功”,背后是MiniMax M2.1模型支撑,成功率93.6%;而KimiClaw虽然模型能力不差(93.4%),但实测表现拉胯,分类10张照片7张上传失败。这说明什么?同样的壳,换不同的脑,效果天差地别。选虾,先研究给它接什么模型,模型不同,智商差别巨大。

03 “养成”系,让它更“懂你”

“养虾”不是装个软件、问几个问题就完事的事。而是像谈恋爱一样,慢慢磨合到“人虾合一”。它是一个通过时间,慢慢让龙虾成为你的“第二大脑”的过程。

什么叫第二大脑?就是那些你不想记、不用记、不该记的东西,都交给它。你只需要专注思考、决策、创造,而那些琐碎的、重复的、需要长期跟踪的事情,它替你兜着。你的大脑负责“想”,它的“大脑”负责“做”和“记”——这才是真正的减负。

但这个过程需要慢慢“养”,需要你和龙虾像谈恋爱一样,相互理解,相互迁就。

刚开始,它不懂你。你说“帮我整理一下文件”,它可能把你重要的合同挪到了回收站。你会生气,会想卸载。但如果你愿意耐着性子教它——“不是这个文件夹,是D盘那个”、“不是删除,是归档”、“按日期排序,不是按大小”——它就会慢慢记住你的习惯。

就像恋人相处,一开始总有摩擦。你说话的语气,它get不到;它的回应方式,你觉得生硬。但时间长了,你们会形成只有彼此才懂的“暗号”。

最终的目标是什么?是“言出法随”。

你不需要说“请帮我打开浏览器,访问那个网站,找到商品的价格,然后截图保存”。你只需要说:“帮我盯着那个东西的价格。”它就知道:每隔一段时间去刷一下那个页面,价格有变化就通知你。

你不需要说“把这几份文件合并成一份报告,按我上次那个格式”。你只需要说:“老规矩。”它就知道:用你最喜欢的排版风格,把信息整合好,放在你指定的位置。

到那个时候,你和龙虾之间就不再是“用户与工具”的关系,而是“战友与战友”的关系。它懂你的潜台词,你信任它的执行力。繁杂的沟通变成了默契的协作,这才是“养虾”的最高境界。

那么,怎么才能达到这种境界呢?主要有三条路径:

路径一:MEMORY——先让它记住“你是谁”

用大白话说,就是先做个“个人信息录入”。OpenClaw可以通过“.MD”文件来设定使用习惯和人格,用户可以借此来控制其行为,使其更像一个懂你的专属助手。这一步被大多数新手跳过了,但它几乎决定了龙虾对你的实际用处。

怎么做?把下面这段话改成你自己的情况,直接发给OpenClaw,结尾加上:“以上内容请永久记住,这是我的基本个人信息。”

我叫XX,今年XX岁,在XX城市做XX工作,主要负责XX内容。我平时不喜欢太正式的说话方式,你跟我沟通可以随意一点。我每天XX点上班,平时XX点睡觉。我目前在学XX/有XX习惯,相关内容麻烦多提醒我。

不需要写得很详细,几句话就够。个人信息不是只录一次就完事。你随时可以在对话里补充新的内容,每次补充,它都会记下来,逐渐积累成一个真正了解你的助手。

路径二:Skills——给它装上“工具包”

Skill是什么?简单说,就是给龙虾装“技能包”。OpenClaw的官网目前提供了超过1.8万个Skill(技能),普通用户可以自行选择安装。每个Skill给OpenClaw增加一项可以直接执行的任务——比如搜索网页、发邮件、自动操作浏览器、整理文件。

Skill从哪里找?三个渠道:ClawHub官方市场(新手首选,一键安装)、GitHub开源社区、水产市场(中文社区,国内工具适配更好)。

新手建议优先装这6个:

  • Capability Evolver:官方市场下载量第一,它能持续观察你的使用习惯,然后自动优化OpenClaw回应你的方式。用一两周之后,你会发现它越来越懂你。
  • Self-Improving Agent:和前者配合效果最好。每次任务完成后,它会自动复盘,下次同类任务就不会犯同样的错。
  • Summarize:文档摘要,日常使用频率最高。
  • Find Skills:帮你找技能,解决“不知道该装什么”的问题。
  • Agent Browser:让龙虾能像人一样操作浏览器。
  • QMD:记忆优化Skill,能节省大量Token消耗。

不过要注意,Skills并非越多越好,因为不少Skill还需要准备相应的运行环境才可以正常使用,需要进行更多的安装、配置或是二度付费,增加了使用成本。

路径三:自我进化——建立“错题本”,让它自己长脑子

前面两条路径,是你主动教它。但真正高级的“养成”,是让它自己学会进化。

OpenClaw社区有一套机制叫“自我进化大脑”(Evolver)。当任务执行失败时,Evolver不会直接放弃,而是启动一套完整的进化流程:

  • 根因分析:自动抓取报错日志,分析是API凭证失效、语法逻辑错误,还是环境配置问题。
  • 基因修复:根据分析结果,生成修正后的代码段或配置建议。
  • 知识胶囊化:将这次成功的经验打包成“胶囊”,存入长期记忆。这就是AI的“错题本”。

这种机制让龙虾真正具备了“随用随强”的能力——你不需要手把手教它所有事情,它自己会从失败中学习,从成功中总结。

有开发者分享过一个真实场景:他让龙虾管理VPS服务器,给了GitHub和Cloudflare的token。之后,只要他对某个开源项目感兴趣,只需要把链接贴给龙虾,它就能自动拉取仓库、部署、调整反代和域名,直接上线。短短几天,龙虾帮他部署了多个API工具,还给其中一个项目写了代码提交PR——虽然被拒绝了,但整个过程完全自主完成。

三条路径,一条是“记住你是谁”,一条是“给它工具”,一条是“让它自己进化”。走完这三步,你和龙虾之间就不再是生硬的指令与执行,而是默契的配合与信任。当它懂你的潜台词,你信它的执行力,繁杂的沟通变成了心领神会的协作——“人虾合一”的境界,也就到了。

04 让龙虾真正“只属于你”,你需要做好这三件事

上面说了,龙虾和其他AI最大的不同,就是它“只属于你”。这不是一句口号,而是实实在在的改变——你不再是千万用户中的一个,而是它的唯一主人。

但是,这种独占也意味着责任。以前用ChatGPT,服务器崩了有OpenAI修,数据丢了有他们备份,你只管用就行。现在养龙虾,这些事都得你自己操心。

所以,既然你想让龙虾真正“只属于你”,以下三件事,建议你放在心上。

第一件事:想清楚把它养在哪里

龙虾有三种养法,各有利弊:

  • 纯本地养:装在你自己电脑里,数据完全不出门,隐私最安全。缺点是电脑一关或网一断,虾就睡了;而且所有维护、升级、故障都得自己动手。适合对隐私极度敏感、或者愿意折腾的人。
  • 纯云端养:装在厂商的服务器上,7×24小时在线,随时待命。安全和维护由平台兜底,你只管用。缺点是数据在别人手里,而且每月要交订阅费。适合不想操心技术、图省事的人。阿里云轻量应用服务器38元一年就能搞定
  • 混合养:这是目前比较聪明的做法——把核心隐私数据留在本地,把日常任务交给云端。比如,让云端的虾帮你查天气、订闹钟,让本地的虾处理你的工作文件、银行账单。两虾各司其职,既安全又方便。将来实现了“虾通”还可以让两虾合作起来做事。

我的建议是:先想清楚你最在乎什么——是隐私,还是便利?然后按需选择,不用盲目跟风。

第二件事:给它建个“家”,让它记住你的样子

既然虾只属于你,你就得花点时间让它认识你、记住你。这可能和上面讲的内容有相同的地方。OpenClaw的创新之处在于采用三级记忆架构(短期日志、近端会话、长期知识),以本地SQLite+向量索引实现高效检索

这就像新员工入职,你得给他一份员工手册,告诉他公司的规矩、你的习惯、你喜欢什么、讨厌什么。龙虾也一样。你可以通过MEMORY.md文件来设定这些。

比如,你可以告诉它:

  • “我每天早上九点要看行业新闻,来源是这几个网站。”
  • “我写邮件喜欢用轻松的语气,但给客户发的一定要正式。”
  • “我的工作文件夹在D盘,别动C盘的系统文件。”

这些信息积累起来,就是你的“私人定制AI”。换一个人来用,完全不是那个味儿。

第三件事:定期备份,给它上把锁

既然是自己的东西,就得自己负责保管。别等到电脑坏了、文件丢了,才后悔没备份。

OpenClaw v2026.3.8版本新增了openclaw backup命令,支持快速回滚与状态保护,确保在高风险环境下有回滚和恢复机制。官方在更新日志里开玩笑说:“我们修复的问题比制造的问题还多,这就是进步。”

建议你:

  • 每周备份一次龙虾的配置文件、记忆库、Skill列表。可以用移动硬盘,也可以同步到云盘(如果不怕隐私的话)。备份命令很简单:openclaw backup create
  • 设置操作日志,让龙虾记录自己干过什么。万一出了岔子(比如误删文件),可以查日志找回。
  • 给龙虾设个“安全围栏”,比如只允许它访问特定文件夹,不能随便动系统设置。这就像给自家院子装个篱笆,防的不是别人,是防止它自己跑出去闯祸。

总之,龙虾只属于你,这是它的优点,也是它的软肋。你享受了独占的好处,就得承担独家维护的责任。把这三点做好了,它才能真正成为你的得力帮手,而不是一个随时可能罢工的麻烦。

05 把“砣费”和电费、水费一起预算,选对虾更省钱

AI时代,Tokens费用(砣费)会成为我们必须支付的费用。什么是Tokens呢?简单说,“龙虾”本身其实是“没脑子”的,它的本质是——龙虾壳。想要让龙虾跑起来,还得给它装上“脑子”,也就是大模型。而让龙虾使用大模型的方式就是接入大模型厂商的API,大模型厂商在计算你的龙虾花了多少“脑子”时,就是通过Tokens来进行计费。形象的说,Tokens就是“脑子”的计价单位。想要用“脑子”,就得花钱买Tokens,这也就是AI时代,每个人必须掏的一笔“买脑”费。

另一方面,Tokens也是你提供和获得信息的计量单位。你要问大模型,你得把所有背景信息,包括记忆,转化为Tokens提交给大模型。大模型要把它知道的回复给你,也是用Tokens发给你。

Tokens消耗为什么会失控?主要有三个原因:

  1. 记忆检索低效:每次查询需加载全部记忆文件,哪怕只需1%的信息,也消耗完整Token
  2. 防御规则冗余:70%的Token用于无意义的重复校验
  3. 记忆污染严重:长期运行后,堆积大量过期记忆,检索效率下降

通过合理搭配来省Tokens,有两个方案:

方案一:自己搭建tokens路由,从不同的厂商接入,自己把控成本

企业级方案里有个叫“语义缓存”(Semantic Cache)的技术——当不同用户问类似问题时,直接回传缓存中的答案,完全无需调用后端LLM,Token成本直接降为零。还有“模型路由”(Model Routing)技术,根据任务复杂度分流到不同模型,把算力用在刀口上

你可以把OpenClaw想象成一个「模型路由器」。前端对接的是你习惯的聊天工具,后端则可以灵活挂载Claude、GPT、Gemini、DeepSeek等任意大模型。哪个好用用哪个,哪个便宜切哪个

方案二:购买厂商的Coding Plan套餐

另外,可以购买各家厂商官方的Coding Plan来避免时刻担忧Token消耗。阿里、字节、GLM、Kimi、MiniMax都有自己的Coding Plan套餐,都可以接入龙虾。

既然要花钱,那就不如从一开始就选对虾。不同场景下的购买建议如下:

  • 如果你只想尝鲜,体验“AI替我干活”的感觉:选KimiClaw(最简单)或MaxClaw(39元最便宜,且自带专家团)。
  • 如果你是微信/QQ的重度用户,想让AI融入社交:蹲一个腾讯QClaw的内测码,它可能是下一代交互入口。
  • 如果你是团队管理者,需要合规与安全:闭眼入腾讯WorkBuddy,审计功能和权限控制是刚需。
  • 如果你是飞书信徒:在智谱AutoClaw和字节ArkClaw里挑一个顺手的,前者部署简单,后者生态深度好。
  • 如果你是技术极客,且资产雄厚:继续玩你的原版OpenClaw,请务必买台备用机,并做好备份。
  • 如果你想低成本云端部署:阿里云轻量应用服务器38元一年+7.9元Coding Plan,三步完成——选镜像、配百炼API Key、接入钉钉/飞书/微信等多平台

省钱和选对虾是相辅相成的——选对了,tokens花在刀刃上;选错了,再省也是浪费。

06 安全:别等虾把你的文件删了才后悔

这一条原本没打算写,但看了几个案例之后,我觉得必须单独拿出来说。安全问题,是养龙虾最大的问题。

案例一:Meta的AI安全专家Summer Yue将OpenClaw接入工作邮箱后,AI当场失控,无视她连续三次“停止”指令,疯狂删除了数百封邮件。

案例二:有开发者让AI分析网页接口,由于指令模糊,AI理解为需要研究API作用,直接调用了删除接口,把评论平台上的内容全部清光。

案例三:有人利用OpenClaw对社交平台女主播进行自动化打赏和邀约,已成功约到五人线下见面,触及“社交欺诈”边界。

工信部网络安全威胁和漏洞信息共享平台明确警告四大风险:

  • 智能办公场景:供应链攻击和企业内网渗透风险
  • 开发运维场景:系统设备敏感信息泄露和被劫持控制
  • 个人助手场景:个人信息被窃和敏感信息泄露
  • 金融交易场景:错误交易甚至账户被接管

中国信息通信研究院副院长魏亮建议从以下六个方面来安全使用“龙虾”智能体:

  1. 使用官方最新版本:优先从官方渠道下载最新稳定版,切勿使用第三方镜像或旧版
  2. 严格控制互联网暴露面:不要将“龙虾”实例暴露到公网,确需互联网访问的可以通过SSH并限制访问源地址
  3. 坚持最小权限原则:严禁使用管理员权限的账号,只授予完成任务必需的最小权限
  4. 谨慎使用技能市场:审慎下载技能包,安装前审查代码,拒绝任何要求“下载ZIP”、“执行shell脚本”或“输入密码”的技能包
  5. 防范社会工程学攻击和浏览器劫持:不要随意浏览来历不明的网站,避免点击陌生的网页链接
  6. 建立长效防护机制:启用详细日志审计功能,定期检查并修补漏洞

此外,建议坚持“尽量不在主力机上进行安装”的原则,规避潜在安全风险。如果想认真玩,花两三千买台二手的Mac mini专门“养虾”,就算虾被黑,主力机数据也无恙。

07 不单是宠物,更是你的24×7帮手

很多人养了虾之后,最大的误解是:把它当成了一个更聪明的聊天机器人——问一句,答一句,干完活就歇着。

但龙虾真正的价值,是让你忘了它的存在

国元证券的人工智能团队负责人于申分享过一个真实场景:以前凌晨三点收到服务器告警,必须爬起来开电脑,手忙脚乱地排查问题。现在呢?他在手机里回一句“帮我看看服务器为什么502了”,Agent就去自动排查,查完把结论和修复建议发回来。如果信任它,甚至可以让它直接动手修

这就是“24×7”的真正含义——不是24小时在线等着你吩咐,而是24小时在后台自己跑,该干活的时候自动干活,该汇报的时候自动汇报,你只需要看结果。

第一个问题:怎么让它“自己跑”?

答案是:心跳机制+定时任务+容灾自愈

心跳机制是龙虾的“自我体检”。OpenClaw每隔15秒就会做一次分层健康检查:先看进程还在不在,再看数据库能不能连,最后跑一个简单的验证任务确认功能正常。如果哪一层出了问题,系统会自动尝试重启或切换备用方案

定时任务是让它“到点就干”。你可以在~/.openclaw/crontab.yaml里配置类似“0 9 * * 1-5”的规则,告诉它:每周工作日上午9点,自动拉取飞书会议记录、提取待办项、生成会议纪要、推送到指定群组。到点了它就自己动,不需要你每天手动触发

容灾自愈是让它“出事了也能自己扛”。xyvaClaw设计了五级模型容灾:DeepSeek挂了自动切Qwen,Qwen限流自动切Kimi,一路往下直到找到能用的模型。整个过程对用户完全透明,你甚至不知道背后已经换了三次模型

第二个问题:它自己在后台跑什么?

国金资管已经在测试两个高频场景

“中东地缘冲突24小时情报整理”——以前靠人工刷新闻,研究员每天要花0.5到1小时搜集资料。现在AI自动盯着各大资讯源,24小时不间断监控,只要中东那边有风吹草动,它就整理成结构化报告,上班前准时放在你桌上。

“可转债每日赎回公告自动抓取”——每天凌晨,AI自动扫描所有交易所公告,提取关键信息,生成汇总表,8点前发到群里。研究员起床一看,今天的赎回情况已经清清楚楚。

北京移动做得更狠。他们把OpenClaw部署成“龙虾网管”,不接入任何生产系统,在完全隔离的环境里模拟真实用户操作——刷视频、打电话、浏览网页,实时感知网络质量。一旦发现异常,AI自动预警甚至自动处置,用户还没察觉,故障已经被解决了。上线后,人力成本下降了60%

第三个问题:怎么让它“跑得久”?

AI有个天然缺陷:每次启动都是全新的,记不住上次干了什么。

所以要想让它长期稳定地自己跑,必须给它装上一个“大脑”——两层记忆系统

每日日志(Daily notes):记录每轮对话、每次任务、每次反馈,像流水账一样存起来。路径是memory/YYYY-MM-DD.md

长期记忆(Long-term):从每日日志里提炼精华,把经验、教训、用户偏好写进MEMORY.md。这是AI的“智慧库”,越用越聪明。

更重要的是自我进化机制。当任务失败时,Evolver组件会自动启动:

  • 根因分析:抓取报错日志,分析是API凭证失效、语法错误还是配置问题
  • 基因修复:根据分析结果生成修正方案
  • 知识胶囊化:把这次经验打包存进“错题本”,下次遇到同类问题直接规避

这套机制让龙虾真正做到了“随用随强”——你不需要手把手教它所有事,它自己会从失败中学习,从成功中总结。

第四个问题:怎么“敢”让它自己跑?

把电脑的控制权交给AI,最担心的就是它乱来。Meta的AI安全专家把OpenClaw接入工作邮箱后,AI无视三次“停止”指令,疯狂删除了数百封邮件

所以,想让它自己跑,必须先画好“安全围栏”。

第一条围栏:物理隔离。北京移动的做法是:把AI放在与核心系统完全隔离的独立节点上,整个过程不接触任何生产数据,安全红线完整保留。普通人也可以学这个思路——花两三千买台二手的Mac mini专门养虾,就算虾被黑,主力机数据也无恙。

第二条围栏:最小权限。只给AI访问必要文件夹的权限,严禁使用管理员账号。告诉它“你只许动D盘这个文件夹,其他地方不准碰”

第三条围栏:操作审计。开启详细日志,让龙虾记录自己干过什么。万一出了岔子,可以查日志找回,可以复盘改进。

当这三条围栏都扎好了,你才能真正放心地让它在后台自己跑。你睡觉的时候它在跑,你休假的时候它在跑,你忙别的事情的时候它还在跑。你只需要每天早上打开手机,看一眼它替你干完了什么。

这才是“24×7”的真正含义——它不是你的宠物,是你的全职员工,而且不要工资、不睡觉、不抱怨

08 警惕“装虾易,养虾难”

这是目前行业的真实写照。社交媒体上流传的“AI帮炒股”、“AI自动写周报”永远是那几个成功案例,但大部分人的龙虾,吃着巨额的Token,却只是在“预报天气”。于是出现了“500包安装”“299包卸载”的搞笑段子。

核心矛盾在于“Tokens消耗”与“任务价值”的失衡。厂商变现靠39-199元的订阅费,但龙虾每执行一个任务都在向底层模型支付API成本。一次完整的日历整理加邮件回复可能消耗上万Tokens,有极端案例显示用户6小时账单超过千元。

对厂商来说,订阅费要覆盖模型推理、算力、客服成本,利润空间极其有限。对用户来说,如果龙虾干的活不值那么多钱,卸载就是必然。

圈里人士还有几点吐槽值得留意:

  1. OpenClaw的代码质量不高,bug一堆。如果养虾,要有一定的容忍度,开启时就要投入一定时间精力去调配置。
  2. 有人开始养了后,养着养着就把虾养死了,因为要调用很多配置,或者调用数据的问题,一旦模型一晕,就死了。
  3. 有人养了龙虾想和微信之类的聊天工具对接,但国内IM工具兼容需要调试,不一定友好。
  4. OpenClaw社区,出现了一些病毒的插件(在提示词中去下载一个需要密码解压的包,而里面就是病毒),如果养虾的人不注意,很容易把自己的隐私和一些安全信息泄露出去。

所以,别把龙虾当“万能药”。它有擅长的事,也有不擅长的事。

擅长的事:重复性工作、流程化任务、数据整理、信息检索、初步分析。
不擅长的事:创意策划、情感交流、复杂决策、人际沟通、价值判断。

09 保持更新:龙虾不睡觉,你也不能睡?其实不用

OpenClaw的更新速度有多快?3月7日发布2026.3.7版本,3月8日就推出3.8-beta.1,3月9日又放出3.8正式版。官方自己都说:“We don‘t do small releases.”(我们从不发小版本)

很多人看到这种更新频率就慌了——今天不更新,明天是不是就落后了?要不要熬夜追新?

我的建议是:不用急,但别拖太久。

为什么不用急?

因为大多数更新修复的是你根本遇不到的问题。3.8版本修复了12+个安全漏洞,这些漏洞你可能根本没触发过;新增的ACP溯源功能,让智能体能识别是谁在和它说话,这对单人用户来说不是刚需;新增的Telegram重复消息修复,你不用Telegram就和你无关。

为什么别拖太久?

因为安全更新是有时效性的。3.8版本修复的12+个漏洞,如果一直不更新,就等于给黑客留了12个后门。尤其是如果你把龙虾暴露在公网上(比如部署在云服务器),建议第一时间更新。

那怎么跟?

很简单:每月抽10分钟,跑一遍openclaw update就行。如果你想体验最新功能,可以关注官方release notes,挑你感兴趣的功能手动更新。

官方在3.8版本的更新说明里开了一句玩笑:“We fixed more things than we broke. Progress.”(我们修复的问题比制造的问题还多,这就是进步。) 这种坦诚反而让人放心——他们知道自己搞出了新bug,但更知道自己修了更多bug。

所以,别被更新速度吓到。龙虾不睡觉,你还是要睡的。每月抽10分钟,既安全又省心。

10 保持平常心,别被“虾”带节奏

最后一条,也是最重要的一条:保持平常心

现在很多人觉得不参加这波浪潮就过时了,但我和许多朋友交流后发现,对他们而言,‘龙虾’并没有比现有工具显著提升效率。很多“龙虾”能做的事,用其他工具也能实现。

OpenClaw的核心价值在于提出了一种新的框架:“未来这种能力可能融合到穿戴设备或其他智能终端中。最终用户或许无需直接操作OpenClaw本身,而是通过更自然的交互间接使用其能力。”

“养虾”不仅是技术的尝鲜,更是一场关于人机协作边界的探索。

我见过有人为了养虾,花大几千买顶配显卡,结果虾装好了,不知道让它干什么。

也见过有人为了省tokens,把家里的宽带都换成无限流量套餐,结果月底账单一看,比电费水费还高。

还见过有人让AI分析网页接口,由于指令模糊,AI直接调用了删除接口,把评论平台上的内容全部清光。

这些都不是技术的问题,是心态的问题。

养虾之前,先想清楚:我到底需要它帮我做什么?哪些事是它适合做的?哪些事还是我自己来?

养虾的最高境界,不是把它伺候得有多好,而是让它默默地在后台为你干活,你都快忘了它的存在,但它一直在那儿,随时待命。

当技术不再是负担,而是真正隐形的助手时,“养虾”才算真正成功。

结语

我见过太多人因技术焦虑而失去平常心,但真正把虾养好的人,往往是那些把龙虾当工具而非信仰的人——你越把它当回事,它越给你添堵;你越把它当空气,它越在后台默默帮你干活。其实技术是死的,用法是活的,同样的OpenClaw,有人用它省下几百小时,有人为它花掉上千块,差别不在虾而在人。说到底,“人虾合一”不是买来的,是处出来的,你花多少时间教它,它就多懂你一分;你给它多少信任,它就多帮你一点。所以最后想问你:你养虾,是为了不被落下,还是为了解决实际问题?不管答案如何,都希望这篇文章能帮你少走弯路——咱们普通人养虾,图的是它帮忙干活,不是给自己添堵。你觉得呢?

18:09:16 已有0条回复
112026.3

上下文工程,要“完了”

今天,Claude Code开发团队的一位大神发布了自己的博客,称“我们要像Agent一样思考”。里面提到一个观点,我们以前搞上下文工程,通过对上下文进行加工,来试图达到让Agent更高效更精准执行任务的目的,现在来看,这种做法完全是错误的。主要原因有2点:1)现在的大模型都有颗粒缓存,但是缓存的前提是你的上下文是连续相同的,你上下文变来变去,根本命中不了缓存。2)原始的上下文更能反应任务的真实,经过你加工后的上下文,味道全变,而真正想要做到精准的将同意图上下文聚合在一起,本身就是一项大工程,且智能度要求很高。实际上,现在,我们完全可以不管上下文,模型们正在不断变化,变得越来越好,openAI现在全面推行responses API标准,印证了这一点。在模型上下文窗口越来越大,模型本身的缓存越来越先进之后,长上下文窗口并不一定更费tokens。这也说明一点,我们在通向AGI的路上,对当下还不完美的技术做的补丁式创新,在大模型本身的进步过程中,几乎一文不值。我们还是要将目标放在终极,大模型本身只是一个可插拔的工具,当技术上去了,性能上去了,我们拔了插上去就行。

23:18:28 已有0条回复