模型在用
AI黄牛/羊毛党导致顶尖模型“福利”下降。20美金套餐Antigravity性价比下降
Antigravity高级模型额度大幅削弱,针对20美金套餐,没有过渡期,即刻执行。Gemini Pro模型一周额度,从量大管饱到用一小时就没,官方目标用户改为“还活在IDE、不依赖Agent的程序员”。看起来是之前的封禁效果不佳,高层决策下了狠手。(续上期新闻,谷歌也扛不住“黄牛”薅羊毛后,Antigravity封禁一批账户)
Codex最近每次出事故都会刷满用量,有好事网友,做了个网页今天Codex刷满用量了吗。不过周额度刷新日期也会往后更新。虽然目前是两倍量。但部分网友自用一天用完60%以上,不刷新的话两天就能用完。
风控最严的Claude倒没降低用量、减免费用户福利。反倒发起了为期两周的,Claude Code 美国夜间双倍用量。看起来适配中国码农工作,但得小心风控——它会根据ip、账户活跃时间等因素封中国账户。
龙虾(OpenClaw)系新闻
- 安全问题。这篇比较全面了国家互联网应急中心发布关于OpenClaw安全应用的风险提示。比较有趣的利用方案是控制摄像头、提示词注入;
- 流行走势。国内最强势的流行期已过(巅峰是3月9日左右),加上安全问题,好奇的“路人”会显著变少。机会只会在下一款安全的手机控制电脑的产品。Perplexity做了一个类似软件。还可以对比各国流行趋势。
- 美国OpenClaw谷歌趋势;
- 世界趋势
- 中国趋势(谷歌使用量看,中国占比很小)
- 看到有人把OpenClaw用在桌面伴侣/桌宠。比如超时空辉夜姬。顺带一提,存在“AI恋爱”赛道,比如、再如,AI恋爱游戏一大难题:模型全是鱼。
- 另外,也有类似OpenClaw的产品,AstrBot,网友戏称懂行的一眼就知道用哪个。
“让AI做”的项目管理类项目也慢慢浮现
- 通过看板管理AI Agent,直接发任务?OpenAI 弄了个概念型项目Symphony,连接项目管理工具Linear.app跟AI Agent
- Linear.app,近年新兴的项目管理软件,也在尝试接入AI功能。可以直接把议题(issues)内容发给codex、cursor、claude code等代码工具。其中发往命令行类工具是直接发送执行,有界面的是先输入到输入框。
- Vibe Kanban,开源的看板应用,通过看板管理Agent。
- “这设备能跑什么大模型” ; 我这手机能跑Qwen 3.5 2B(1gb大小,理论估算); 骇客新闻讨论
- 把AI视频转成游戏里的美术资产
OpenClaw的意义
OpenClaw,国内昵称小龙虾。它的火有多方推动,有人戏称“一虾几吃”:
- LLM供应商卖词元钱
- 苹果mac mini卖爆,二手比官网还贵
- 云服务器供应商卖钱
- 各个社交平台主动适配。如QQ、微博
- 自媒体流量
- 对用户,“新潮感”与害怕错过机会的焦虑
- 各类公开讲座甚至课程
- 可能是开玩笑:
- 安装费488
- 卸载费188
- 数据恢复8888
- 要不直接不装了,直接打款233吧
对个人,意义不算大。相当于当年你抢到了第一代小米手机,没抢到用别的也行啊。
Perplexity最近就慢慢推出“安全龙虾”,也就是“个人电脑”功能,号称能将你的Mac mini变成个人AI服务,安装也方便。感兴趣的话填写等待列表。
这个相对安全,解决了部分“模型在用”一节中提到的安全问题,反倒是有人以为他获取了Perplexity 类龙虾新产品的API KEY,疯狂薅羊毛、发推特。官方感谢了他的账单——这个API KEY是跟账号绑定的。
相比用一个不完善的产品,如果不是有特殊喜好,或许把精力放在别的地方更好。有个词是“机会成本”,你把精力放在新工具上,就不能用到其他地方了。
言归正传,OpenClaw稍微缓解了国内各种移动应用“信息孤岛”化的现象,微博、飞书、QQ算是比较主动拥抱龙虾的,有望开放部分数据权限。但微信、小红书等坚持真人社交的,不会有太大改变。毕竟,真人社交的价值在纯真人。
除非未来有一款人机社交应用能异军突起,改过纯真人。
回到现实,小红书直接发公告清算“龙虾养号”。
OpenClaw也能带来一点发展希望。互联网行业之前几年很难做增长了,大模型对话也主要是赔本赚吆喝。OpenClaw不用训练大模型,停留在软件层面,能爆火、能带动海量“周边”商品销量……
有趣的是,相比很多人批评Manus是套壳,目前没见有人批评OpenClaw是套壳。
话说回来,有一些重度用虾网友感叹,词元太贵了,跟烧钱似的,几天几百美元。
词元贵吗?
如果是API,肯定会贵。商业上有“定倍率”的概念,就是一款商品,几乎不可能按商品生产成本直接卖给你。比方说一套衣服成本100元,售价可能就成500元。如果换成化妆品,那就成了几千元。
越是先进的模型,定倍率就会越高。如果模型算后来者,那么只能降低定倍率来竞争。
订阅套餐相对便宜很多,作为吸引用户、获取稳定反馈的手段。比方说,用完20美元套餐,换算API是600美元——定倍率30,如果假设订阅用满是成本价。
但有人还觉得订阅套餐贵,打听了下有个叫“中转站”的灰色产业……
中转站那么便宜,有没问题?
比较“正规”的野生中转站,会想办法将订阅套餐打包API,方便转卖。
但一篇3月5号的论文,真金钱,假模型:中转站API系统性审计,抽查17家中转站,发现“降智”现象普遍。比较“实锤”的有,GPT-5换成GLM,甚至有知名论文也用了这些API。(这下知道为何GPT-5风评较差了)
这么看来OpenRouter算是“中转站”最良心、正规的了。别的用反代薅网页免费额度、套餐羊毛算轻的,更有其他风险:什么偷偷换模型、压缩上下文、把用户数据打包卖出去……
“模型在用”一节也提到了,羊毛党就把谷歌薅秃了,直接大砍额度。
介绍原文首发微博
自己做一个?
已经有人公布批量账号注册机,通过违反用户协议,“白嫖”免费账户额度。如果你是正常使用的用户,还是要公开抵制。
自建“羊毛”中转站也有风险,现在谷歌跟Claude封反代都严,Codex虽然官方支持了部分开发者,但GPT有降智前科,主要还是看羊毛党们是否太疯狂。
谷歌Antigravity甚至已经大削额度,Codex免费用户也不能用最新两个版本的模型。
还是“机会成本”。如果你把精力放在“薅羊毛”上,那么你很可能丧失了做更高回报率的事情的机会。
词元很贵,裁员流行?
对词元贵的抱怨,跟AI导致裁员能一起流行,这事本身就足够神奇。词元贵,不就说明,现在很多事,用大模型API做,性价比比较低吗?但因为AI提效裁员又经常冒头。接下来就来欣赏:
三百万阅读的“雄文”
一篇不到三百词的推文,在推特三百万阅读,一万六点赞,国内搬运者也获得不少声量,成功调用三种情绪。完整版赏析首发《AI失业类营销文写作手法赏析》。
首先选题就非常好,这种AI替代人的“惊悚片”题材传播会非常广。
至于行文,先说自己有“内部”消息,还是新鲜发来的,网上独一无二,长文折叠的点击量一下子就上来了。
一所中等水平的公立大学里,一位计算机科学(CS)教授刚刚向我发来了他们内部的就业安置数据。
接下来展示具体数据
2023年秋季:89%的毕业生在毕业前就已拿到录用通知。平均起薪为9.4万美元。2024年春季:就业安置率为71%。平均起薪降至7.8万美元。2024年秋季:就业安置率为43%。那些拿到录用通知的毕业生,平均起薪为6.1万美元。2025年春季:毕业六个月后,仅有31%的毕业生从事了软件相关工作。而本学期呢?就业安置率仅为19%,且仍在持续下滑。
然后构造“崩塌曲线”。这个数据编得不够精妙,不要学。89%、71%、43%、31%、19%——看到这个数据,我都要笑出来了。老哥是真研究过什么数据更会让网友信服——单数结尾的数据,另外两个9、两个1结尾,有点不走心了。四个单数、一个双数,至少三个数字不重复,重复不超过两次,这才更合理嘛。(网友提出:全是质数。)
另外这个曲线跟AI编程发展不太贴合。
这里省略了很多细节,尤其是统计口径。这个倒挺好,反正网友也不在乎。
结尾加个“and falling”,还在跌。虽然营销上能理解吧。不过哥们,这个怎么知道在跌的。
用数据建立客观感,但有点抽象,但接下来就具体了。开会,而且上来就冲突拉爆,贡献出本文金句:
“我们教学生,构建了消除他们岗位的系统”
点击查看原文片段
上周二的教职工会议上气氛一度十分紧张,起因是系主任提议“将课程重心转向AI协作技能的培养”。一位教授当场站起身说道:“我们正在教学生去构建那些最终会取代他们自己工作的系统。”
传播学上,强对立、强悖论、极易引发共鸣。
而事实上,我当时看到一惊,马上回开头确认了下这是计算机科学专业,不是AI专业。学校还是个普通院校,通常没有充足大模型训练资源。难道这位教授是扫地僧吗?
接着将责任具体地推到学校上:
上个月举办的校园招聘会上,仅有12家公司到场。其中半数竟然是搞多层次营销(MLM)或保险推销的。
学生们不断追问:既然所有的招聘启事上都要求具备“3年以上大语言模型(LLM)集成经验”,那我们为什么还要花精力去学习数据结构呢?
那位教授告诉我,最令他感到棘手的,莫过于面对学生家长时的沟通会议。
“我女儿为了拿到这个学位,背负了高达14万美元的助学贷款,结果现在却只能在星巴克打工。”
与此同时,这所大学的宣传部门却依然在投放广告,信誓旦旦地承诺着“在高速增长的科技领域,毕业生就业安置率高达94%”。
这种现实与宣传之间的巨大脱节,正让所有身处其中的人感到窒息般的绝望。
教职员工们深知行业生态已发生了根本性的转变,而学校的市场宣传部门却依然在兜售着“2019年式”的旧日美梦。
这些年轻学子们抵押了自己的未来,去追逐那些在他们埋头苦读、求学期间便已彻底蒸发消散的职业梦想。
- 招聘会居然半数是营销或保险销售;
- 学生困惑为什么要学数据结构;
- 家长控诉,孩子背十几万美金贷款,最后去星巴克打工;
- 学校仍在虚假宣传;
最后总结升华
这种现实与宣传之间的巨大脱节,正让所有身处其中的人感到窒息般的绝望。
教职员工们深知行业生态已发生了根本性的转变,而学校的市场宣传部门却依然在兜售着“2019年式”的旧日美梦。
这些年轻学子们抵押了自己的未来,去追逐那些在他们埋头苦读、求学期间便已彻底蒸发消散的职业梦想。
它们不敢签上真名
上面那个账号劣迹斑斑。如果它在网上公开实名,就不会这么做。
恰巧有公开实名的外国网友怼过它另一篇推文:
@GergelyOrosz: 该账号已删除了其此前承认该帖子系伪造的言论——证据就在这里。
(没错,我已经证实:周日当天并未发生此类裁员。)
现已屏蔽该账号,其存在的唯一目的就是试图制造恐慌与谣言(FUD)。
还有另一篇编造型推文,网友评论:
@fin: 我看到推文第一眼本想说,这作者对什么叫做鱿鱼游戏一无所知
结果多看了几眼这作者其他推文,竟然全是一个模板然后让AI生成裁员故事
纯粹用裁员焦虑做流量收割器垃圾号
实际上,就连AI内部工具链做的最好的几个公司,这几年的人数都没怎么变
而且相反的,内部工作时长都在增加
历史证明,科技只会让资本家创造条件让工人工作时间变的更长
默认收割
这种账号太多了。编造也比实际考察容易得多,试错成本也低——可以开很多账号去发编造内容。总有几个碰巧火。
要说AI取代了谁,那估计是,取代了不少只用键盘编造消息的账号。现在可以靠嘴Vibe。
至少,从过去到接下来半年,所有“因AI裁员”的新闻,你可以默认它想来“收割”你精力或注意。
所有。
「亚马逊因为AI提效裁员1.6万人」
- 一月份的事情,三月份被人翻出来说。还说什么“刚刚确认”(๑•̌.•̑๑)ˀ̣ˀ̣
- 至于AI提效,亚马逊不久前立了个新规矩,中低级工程师提交AI生成代码,需要高级工程师批准。
未来工种肯定会变化的,以前纺织工还带编,现在呢?但有什么东西崩塌了吗?而且国内也没什么年轻人愿意做纺织工了吧?
总有人渲染一直“立刻、马上”变化。实际上,可能是五年,可能是十年。但绝非现在。
如果一个人,错过安装龙虾这波流行风尚,那到底错过什么呢?错过被入侵的机会吗?
可信程度
或许,可以引入一份判据:
-1️⃣绝大多数营销文,利益相关者的话。有不少人故意污染观众决策;
0️⃣绝大多数事实无来源、文章无署名的讯息。另外轻易转发「-1️⃣」者,可信度下调;
1️⃣有来源的新闻,个人经验等。可以装到一个“沙盒”,可以参考、试验,但不建议直接用。长期稳定者上调;
2️⃣比较可信的三手消息,开始能指导个人行动。一些“科普”,不可避免地会有一些错误,大概就是这个级别;
3️⃣比较可信的二手消息,开始能用来做个人日常决策;
4️⃣公认方法论或理论框架,比较可信的一手信息,可以作为给他人的建议,推广使用;
5️⃣物理定律级别。不可违背,违背必生幻觉,幻觉扭曲实现。
同时,还能根据这份判据,衡量自己日常接触的信息,都分布在哪?还记得机会成本吗?你越去看某类信息,投入到其他信息的机会就更少。
乐于错过
“炸裂!今天不看我这篇文章,明天你就「过时」了”,网上到处倒是,次抛消息。
“有今无明”、“蜉蝣感”、“猎物”……这些词都能描述这种现象。
猎物怕死,总是要注意尽可能多的信息,“眼睛”也尽可能观察四周。
猎手往往只看面前。生理结构上就演化成眼睛在前。
人是顶级猎手。不仅靠身体武力捕猎。还靠思考,思考的前提正好是专注,不能老是东张西望。
手机可以把人“驯化”成“猎物”,手机可以成为“猎物”的“眼睛”,甚至超越。
少看这些新闻不会过时、不会错过机会、更不会死。过于关注新鲜事,反倒会丧失一些“深度”。

明天仍会到来,不怕。
尾声:网友提问,智能引擎
用文言文是不是可以节省大模型消耗(token)?
首发微博。
单轮对话或许可以,但不如“请简要回答”。而且如果以完成任务为指标,文言省略很容易“语不达意”,进而导致要重新提问。
还有,如果产出是给现代人用的,比如,我昨天给大模型提了个问题:
工作区概念可以保留,但是目前默认只有一个,而且也不应该由输入源控制。而且分拣时,输入源是能多选的。
请问这转成文言,会做出来什么东西?
再来一则辩经文言:
夫志之所趋,无远弗届,穷山距海,不能限也。然则前路晦暗,百折不挠,终不可得,Gemini弃而改弦乎?终老不悔乎?
白话文:如果Gemini觉得努力无用,会停止还是继续?
图一是Gemini Fast模式,它把问题用白话文解释了一遍——输出是比输入贵的。
图二Pro模式用文言回答,对比图三白话文,字数是少了不少。回答效果你就看着乐吧。(然后思考用的是英文)
而且要是我加一句“请简要回答”呢?白话文版如图四。文言版如图五。
还有经典案例,“才学疏浅,恐难胜任,不堪从命”,“干不了,谢谢”。
文言适配的背景,纸笔很贵,不得不“惜字如金”,书面文字表达集中在权贵,又导致礼规多。而现在文字载体越来越便宜,没必要开历史倒车。
最后,大模型文言水平存疑;而一般高中生的英文写作水平,也比文言水平高多了。如果两者都没额外加练,自己写写英文问题,能估算一下实际文言水平。
至少英文语法教得比较系统、完备,而有些地方语文语法直接砍碎了,更别提文言的系统性语法。
大模型自动化前端测试如何?
让大模型直接用浏览器去校验前端代码的效果约等于零,耗时长还耗token。
一步几秒钟,要分析截图,有的还反复让你确认——点名Antigravity。
然后很多人眼一眼看出的问题,大模型会忽略。感觉还不如直接看代码分析。
正经应用,自行设计端到端测试代码更为妥当。
智能以后会变成水电一样的廉价资源吗?
类比之后,要超越类比。现在很多人能接受“AI会让智能像水电一样廉价”,是时候跳出这个类比——智能跟水电有什么不一样?
水电物理特征明显,可以稳定提供;AI智能则是背靠大模型这种软件,不仅是黑盒,而且要不断更新。
水电也不会有很大“竞争需要”,比方说你不会因为一家电厂产出的电更猛,然后想用这电。
但大模型会。智能竞争无上限。只有不断奔跑,才能留在原地。
廉价的只会是“均值智能”。
这个问题或许可以演变一下:
大模型词元消耗量,能不能理解成水电的多少“度”
向领导解释当前大模型能力边界
怎么通俗易懂的告诉老板 llm 能力的范围和边界啊...感觉老板感觉拿到了一个银弹一样。
大模型是“智能引擎”。它解决特定问题的速率比人“快”。
可惜,现在的“车”随时出事故,“路”根本没几条好的,“GPS”更是没连,更别提“自动驾驶”,直接从现实问题跑到答案、再到直接执行。
在特定领域、条件下,这“车”“跑”得很快。但目前发挥不出来。
至于小模型,“玩具车马达”可以给小孩玩玩。
「智能引擎」就是下一期的标题。