- “我有个朋友吃了那啥,然后病就好了”;
- 贵有贵的道理,存在即合理;
- 努力就能成功;
- ……
人类有大量“经验”总结,其中有相当一部分是“零例外推”。不是单例,是0。
世界很复杂,有些人却只想要简单答案。人至少能触达四维,他们却甘于困于三维,只用低维方法。
模型在用
知名大模型编程工具用量集体、持续下调。2026 第一个 AI 泡沫?
ChatGPT 100美元套餐,定为plus的5倍用量。(5月31日前是十倍)。
由于plus的五小时用量再度下滑,有网友认为这个用量会跟之前大搞活动的plus类似。
另外这个套餐可以在ChatGPT上用Pro模型。
Codex额度又重置了,而部分Claude Code用户还在调查源码,想找有时额度消耗过快的问题。
GitHub copilot 成为最后的性价比之选?可惜也开始扛不住,开始削部分福利,目前削弱幅度不高。
A\ Claude 相关。中国用户尽早考虑Claude订阅备选,另外不用把A\吹的牛当成圣经。
A\ 公司新模型Mythos太危险,只能内测?大模型挖漏洞水平如何?
- 网友称自己通过AI写了个挖漏洞的Agent,发现了Chromium的21个漏洞(声称高危或严重);
- 自动挖掘这块,国内很多家在做。
Claude账号管控更进一步。初步开启实名身份验证,证件加自拍。目前为“部分场景”启用(有人开Max套餐触发)。跟Persona 合作,并承诺自身不储存证件、自拍图像,不用来训练模型等。
第二梯队新模型。Gemma本地模型新玩具。
第二梯队新模型。
- Meta新模型Muse Spark,官方发布。
- 有点Gemini的聪明劲儿,比方说链接里的“日语直男梗”;
- 亮点在读图能力跟Github代码库分析;
- 代码方面比较一般,尤其是修改。不过它不是代码模型,这点可以理解,偶尔有比较好的效果,已经出乎创始团队意料了。Meta AI Muse Spark Coding Review (It's BAD)。
- Kimi 员工说K2.6-code-preview上线。该员工还说,这个模型修复了 Claude Code 2.1.88 版本由于工具 Schema 变化导致模型“降智”的问题;
- GLM 5.1,适合复杂任务,编程效果风评好。但就算面对简单问题,它都想着去编程解决,容易思考用力过猛。至于模型性能,很慢,而且加上这家公司之前出现过算力不足的问题。如果想实际采纳使用,可以考虑Ollama cloud或Openrouter这种第三方平台,看看有无缓解;
- Meta新模型Muse Spark,官方发布。
本地模型新玩具,Gemma 4系列。Gemma-4-E2B-it甚至能在iOS15 Pro以上型号顺利运行(iOS 应用商城搜 Google Edge Gallery即可体验),但目前应用场景不多。千问3.5 4B模型“堪比”GPT 4o?,本地最重要的场景是长文翻译跟角色扮演,目前两家都不太擅长。假设远程大模型不能用,就像假设不能连公网——绝大部分人没这种需求。
Skills与梗图
- 响马发布画常见UML图表的Skills,GitHub;
- 终于看到一份网页设计本身像样的vibe design指南推特、网站;
- “金谷园饺子馆 Skill”,你没看错,就是一家饺子馆。现在AI一大作用就是引流;
- AI编程让人上瘾的系列梗图。类似梗图,我去年就做了,最近流行,我觉得现在流行的更简洁有力,重新做了个「一开始以为,只试一次不会怎样」codex动图版 。
- 将名人炼化成Skill?本质上是让大模型角色扮演,然后包装一层“可能有用”,让人有动力转发、收藏;
- 社媒到处都传的“炼化成 Skills”只是前兆,以后发软件跟发微博一样;
- 同事炼化Skill与裁员恐惧情绪结合,网友生成的员工Skills坟场得以传播,甚至有人误以为这是真的
亮点功能
安全话题
- axios安全漏洞,数日后Codex发布紧急更新。还称“没有证据显示”有人利用这个漏洞。
- 一家公司生产数据库用Sqlite。没架构意识,就算有大模型加持,也会犯错,而且拒绝修改。
- 用豆包犯错?
- 《有人用豆包买保险,结果支付到我这里来了》
- 就算豆包没错,说是毒蘑菇,某用户也不信邪,自己小试一下发现没明显问题,就全家开涮毒蘑菇:
- AI生图应对截图水印
低维方法
有些人,看起来以“技术”为尊,实际上以成果、身份为上,买东西用成本衡量售价——毫无疑问,低维方法。
那么,如何反驳“这个问题原来那么简单,你收我那么多钱”呢?
当前AI真实水平
可以说,AI可以当一个“强外包编程人员”用,很多人用AI写项目,会很快碰到工程瓶颈。
现在吹10倍提效的少了,但又冒出来有人吹,一套方案打天下项目——毫无疑问,低维方法。
一旦涉及工程,一个好的建筑师,也难以挽救建到一半的烂尾楼——工程问题是全方位的问题,重点可能是钱与资源分配的问题。
2026年4月3日,ChatGPT发布后 3 年 4 月 4 日,AI生成水平(非Agent):
- 文本:自然语言读写超过人类平均,形式语言读写(数学、编程等)远超人类平均。一般人难以评估产出质量,易受说话语气、排版等因素影响;
- 图片:常用图片类型已过“糊弄点”,就是外行人一眼看上去没什么问题。海报文字偶尔穿帮,但大部分网友也不细看。某些细分场景画不了,而且画不了就是画不了,比方说“指针式时钟,10点47分”,时针正对10;
- 视频:极少情况下,“垫视频”已过“糊弄点”。类比图片生成发展,整体还是DALLE3水平。恰好能做漫剧、动画小说(比PPT动画、沙雕熊猫头动画好点);
- 音频:就算只是消费级显卡跑出的音频,陈述语气下也能做的很像真人,音色好的真人,细微情感上可能不好调。
针对编程(含Agent),可以考虑搞一个「大模型路由」,尤其是在公司里,模型随便用的话:
- UI给Gemini3.1 Pro设计;
- 日常屎山给Claude 4.6 Opus堆;
- 比较新颖的需求,难解决的问题给ChatGPT 5.4 xHigh。
路由的原型,找个便宜点的模型分就好(或者自己手动)具体按自己喜好调。
对未来,半年内我表示悲观,现在token单价,就算是订阅套餐,也“绷不住”低价了。
但三年后极度乐观,岗位必然流变。
岗位流变
互联网行业以前快速发展,人力冗余很多,熬过几年瓶颈,终于迎来Agent狂欢。
现阶段AI对岗位的影响
三年前AI对职位的影响讨论,至今不变:
Dash Huang(taptap):最近和两个游戏团队聊天,团队一把原画外包公司给砍了,团队二把翻译外包公司给砍了。AI已经实际开始影响到很多人的工作岗位了。
tombkeeper: 如果你的工作内容是(输入信息和输出信息)且(大部分人都能学会),那么就可能在数年内被 AI 取代。
黄健楸:关键词其实是“外包”。AI比某些坑爹外包稳定、便宜多了。外包也不用出彩。
作为个例,可以看看配音演员现状,初步看,有卖正规AI配音版权的活得挺滋润,被盗取声音很揪心。
上期提到的《AI漫剧大逃杀:成为前1%,或者倒下》,可能也是岗位流变的例子,把动态漫干成了劳动密集型产业,3000块雇零基础人员就能开始干活——当然,这个行业前景不太乐观。
行业增长时放肆纵容冗余,减速甚至停滞时就成了眼中钉。
因此 2022 年以后逐步裁员,尤其在 AI 提效之后,2026-2030 这五年可能会裁掉一半从业人员。高薪向中薪流动,中薪向低薪流动或转型,低薪直接转型蓝领……
2022 年以后,人员大量冗余的互联网行业,任何时候都可以平安无事地裁掉一半人。AI 只是提供了一个体面的裁员理由,以及 AI 带来的效率差距给 “裁谁不裁谁” 提供了标准。
……
Agent 的生产力提升压倒 Chatbox,又有超强的定制性。从业人员保命的三个阶段是:
- 将自己的工作改造为人与 Agent 共生的新质工作流,这是基本款。
- 从基本款拿到经验值之后,将部门/公司的工作改造为新质工作流,这是高阶版本,大概率会成为阶段性的公司红人。
- 保底方案是,为自己优化更好使的新质工作流,效率领先同事。
——节选自《2026 互联网行业生存指南(上)》,作者是“古典派”产品经理纯银。
XX要倒闭了吗?
影楼要倒闭了吗?个别互联网男博主提出婚纱影楼要经营不下去了,很多男的应和。
钻戒的“骗局”,多少年才勉强在行动上“戳穿”?只要婚姻还是女方优势,女方决策。难点是说服女方。
如果真想结婚,男方不要主动提AI代替影楼这种方案——影楼拍不好,但你尽力了;AI 拍不好,是你想省钱,女方能怨你一辈子。女方主动提倒是能让男方开心,然后摄影换成旅游经费。
女性普遍追求某种“高光时刻”,为了这种“高光时刻”,她们可以受比较强的负面体验。
安全公司要倒闭了吗?有人看到Mythos吹的牛,惊呼安全公司危险了,个别公司的股票直接跳水。
且不说自动挖掘漏洞很多公司都有成果,安全公司的业务不等价于“找漏洞”。它们反而很希望3000块月薪的临时工,也能轻松找到漏洞。这样就不用头疼人力成本。
很多公司都在“原子化”岗位,或者说“螺丝钉”。这样换起来方便。大模型能大大加速这点。
“流氓”横行
感谢流氓?
现在网上,流氓越来越明目张胆起来。甚至有这样的:
某网友:
……
过去我不懂殊途同归,后来终于明白:
1、在非洲海岸边带着一麻袋现金,背后站着两个手持ak47的开着游艇的kyc厂商,在绞尽脑汁给你过身份验证
2、在深圳写字楼里,戴着黑框眼镜,穿着拖鞋,手持瑞幸咖啡,擅长做seo和社群营销卖ai中转站的厂商,在绞尽脑汁给你做好用的套餐
3、在意大利机场不停偷包,开包,挑拣macbook和信用卡出来,给ai中转站卖黑信用卡信息、盗刷信用卡的信用卡厂商,在绞尽脑汁给你省钱
三者就像jojo里的替身使者一样,总是要相互吸引的
感谢时代,感谢所有套利者,能让我们用上便宜的claudecode
大环境差?流氓也有一份
“现在大环境变差了,你们要感谢我们仨”
“那么是谁把大环境搞差了呢?”
“诶嘿,也有我们仨儿一份”
之前说过,各大AI厂商服务器资源告警,有灰产中转站一份。直接逼得谷歌封号提上日程,到后面直接一刀切把优惠套餐近乎砍得没有价值。盗刷更是封号、封信用卡的推手,本身还是违法行为——不知道有什么好吹的。
而所谓“kyc厂商”只会倒闭AI模型的“kyc”,变得越来越严格。
你注意到没有,正常使用的用户,是不是越来越麻烦了?
我本不想去批评这种灰产,免得惹一身屎。但还有人跳出来邀功,下一步是不是自诩正义?这是不是过分流氓了?
正道,就算只为利益
所有流氓都在用“低维方法”中最差的那批方法,他们不会考虑未来,“活在眼前利益”,也被困在这里。
像蜉蝣一样,只有今天。
如果你不是蜉蝣,走正道,是为利益考量。除了良心上过意得去,还考虑到很多“资质”相当难获取,极其难维护,若走歪路,“资质”太容易被没收。
为了再揭露一个黑帽SEO“技巧”,什么品牌词火,就光速注册一个站,用别的竞品代替,比如最近爆出一个视频生成模型HappyHorse 1.0,这类流氓抢注happyhorse域名, .app、.net、.art结尾都是。还挪用别人Seedance 2.0生成的视频。其中有一个挺搞笑,里面有很多视频模型,包括可灵,但唯独没有Seedance 2.0——改成了happyhorse。
“妙啊”,把前端名字改一下,背后随便调用最好的模型,你自家就有最先进技术了。
还有自媒体一时不查帮忙宣传(在网友提醒下改正)。
这种网站,就算一时获取了谷歌排名、广告收入,被举报就没了。谷歌排名、广告收入本身就是一种“资质”——“蜉蝣人”不在乎这些,他们只考虑当下的“三维”。
神奇的是,有的流氓甚至会激动地反驳我这种正常逻辑,说什么「何不食肉糜」。
好玩或有用
我最近发AI新闻跟批评的频率下降很多,以后也会维持这种状态。因为我长期跟AI新闻下来,发现大部分时候还不如看段子——再不学就不用学了。少部分时候呢,晚两天知道也没什么。
当然,我今天之前,还看新闻的,只是觉得很多信息没用或者不好玩,尽量不发、不批评(当然有时候没忍住)。不发、不用,本身就是我的态度,这里可以点名Meta发的模型跟Claude的宣发(又没忍住,明天就戒!)。
大伙倾向于高估新技术短期影响,又低估长期影响。比方说AI冲击前端程序员的岗位,之前说半年内没啥,但三年后就说不准了。也不会直接替代人,而是让岗位本身变化——看纸带的美女、可以转成用机器读磁盘的美女(图二)。
追新鲜工具,也不会避免这些发生,甚至连“逐步体验被替代”都做不到。或许是某一天,纸带“突然”就变成了磁盘。
但有不变的规律。想注意规律,得少关注新闻,视角拉远些。
有时等待本身也是一种策略。象棋中有一种“闲招”,就是自己下一步费棋,让对手动。特殊情况下,对手一动就死。
明天还会到来。
有人说AI像珍妮纺纱机,其实它更像蒸汽机。蒸汽机替代人力,AI替代智力。
蒸汽机提供一种通用动力,AI提供一种通用智力。
AI是智能引擎,速度很快,但需要装到车上、需要“道路”,需要加油。如果你是智力上的“人力车夫”,那你应该担心。如果你工作中经常要“走远路”、坐“人力车”,你或许反而开心。
对大部分人,关注AI在用,在使用中体会AI能力边界,就够了。
比如,大模型不擅长幽默。我最近常常转发一些段子,保持一点人味。
找到有用的规律、实践实用方法论、找到自己有用的地方,不断发展、积累……
前面这些道理其实没什么人看,就算他们是有用的,长期有效的。
或许包装到故事、段子、产品里更好——人类目前更擅长试验这些。
之前我一直说MBTI没什么用,但它还是自顾自推广、流行。而昨天SBTI一出,直接用测评打败测评——谁还敢标自己是什么人格?“这不是SB吗?”
个别网友非常激动,批评展示SBTI测评结果的网友。甚至有人说什么用SB对抗SB,是SB²。
显然,SB / SB = 1,SB - SB = 0。
又不是SB支持SB,他怎么就拿了个X呢?
纯粹有用或许持久,批评永远正确,但结合好玩跟有用,可能才是治疗SB的良药。
不要什么都用AI搞
AI在现实落地,由于有随机性,多少有点实验感,这种随机本身就自带成本。
就像不是什么都要实验或调研验证,也不能将什么都一股脑交给AI搞。
“整理代码”?
Claude code 泄露source map,脚本先处理就行,第一步不需要用AI(文件太大)
假设下载了npm上泄露的cli-js.map,在该目录:
npm install -g shuji
npx shuji cli.js.map -p“不要重复造轮子”,对AI编程来说,很多时候也有用。
有DeepSeek就不用写作文了?
你的同学小明发现 DeepSeek 写作功能强大,便打算以后所有的作文都用它完成,不再自己动笔。 你会怎样劝说他?【宝玉的推文】
我预判了这种问题。发一篇旧文:
或许以后,有孩子会问:“Deepseek语文那么好,我为什么还要练写作”(换成其他AI也一样)
- 有人写作是为了交作业
- 有人写作是为获取大家关注,在网上做出一个个账号、网站,甚至不惜用AI生成海量内容,自己看都不看
- 有人为自己写,做为“人”,而不是“号”跟“站”
什么吸引第三种人呢?
写作有一种“自反馈”。你写出来,然后自己又去看、去读、去改,反复锻炼、迭代。如果哪写错了,可能是身体哪根筋不对,要反复改,去把那根筋修好。甚至写不出都是有效反馈——这部分,要补课
这是一种思考方式,甚至是思维锻炼方法
其实问大模型也是一种思考方式,如果你反复调整问题,以获得更好答案,那也算一种锻炼
你要是不写作,就像不用AI,少了一种思考方式,一种锻炼维度
有人爱面子,不愿面对“写不出”困境,其实是不愿面对自身缺点。或许他们根本没有享受过改正缺点的好处
你问“一定要锻炼吗?”你先试一段时间,看看改正缺点会给你带来什么
对了,“写不出”时,别呆坐。去研究、去学习、甚至去玩闹、去聊天。“问渠那得清如许,唯有源头活水来”。一百份“活水”,总能生产出一篇作文吧?
话说有家长整天让孩子上课写作业,写作文恐怕也只能想到课堂跟作业、或者背几套模版“美句”应付,你希望像他们那样放弃思考吗?
话说有人首次谈恋爱,会各种请教“军师”,比方说,对方这条QQ信息怎么回?以前“军师”可能是朋友、同学、亲戚……现在还多个Deepseek
那当面约会怎么办?“稍等,我想不出来,先问Deepseek”。要不人家直接跟Deepseek谈恋爱,不用中间商赚差价?
而对“写作”来说,人生有无数“当面”
AI大神提出了一个AI + obsidian的组合?
部分网友问Obsidian加上大模型会怎样。我说Obsidian挺好用,但你如果在幻想什么神奇效果的话,参考这篇文章:
很多笔记、许多信息,不会“长期有效”。
就算信息仍然有用,比如图一的“平民为什么要关注GPT”,但肯定不如23年初那样有用——现在如果还有人觉得前沿AI是个蠢蛋,那这人才是。
而且图一得更新了,至少换掉GPT。图二这种更具体的,“腐烂”得更严重。(对Markdown感兴趣的话,可以发给顶级大模型分析一下哪些论述过时了)
信息得不断迭代,才能维持作用、保持新鲜。甚至会形成一套对规律的描述,或者编织成一篇故事。等到某天谁突然发现它有其他用处,或者突然传播开来……
但只有一部分信息有这种潜力,大部分信息,说不好听的,只能次抛——没资格被读第二次。
我觉得聊天流很适合用来筛掉这种次抛信息,之前就喜欢往“微信传输助手”发一些新闻或灵感。回头再看的时候,要是觉得它们还有价值,再移到别的地方去。
我甚至还让AI弄了款桌面软件(图三)后面还能添加某种统计。如果某个人发次抛信息,比其他人多很多,那可能是标题党,考虑取关。但如果发现所有信息都会次抛,那可能得从自己身上找问题。
我最近还发现,图二这种有点道理、但又有点过期的内容,恰好可以用来考验大模型。至少有几种方向:
- 基本阅读、评估能力;
- “舔狗”程度。不同提示词,不同倾向。比如,作者分别说自己、朋友、陌生人、仇人等;
- 基于不同年份去客观评价。看看它们会不会马后炮;
- 搜索当下实时进展并更新旧文的能力。
这有什么用呢?
大模型自己语料库腐烂的问题,比所有笔记库都严重。
如果大模型可以清晰判断并正确修改这些信息,它可以自行更新自己的语料库,“接生”下一版本的自己。
说专业点,叫自举,目前大模型公司至少做成一半,能通过大模型合成数据,然后经过一种流程筛选,再去训练。
把视角放回我们自己。我们也得不断更新自己的信息。有人想着笔记一记下来就“长期有用”,不太现实。
分层思想
开始有人注重分层,也就是分离AI产出跟人类产出。编程仍然是前沿实践区,比如海盗与架构师、类龙虾项目bub打算重写架构,以后只有插件才能随便 vibe、Agent框架Pi默认仓库议题跟合并是AI提交的
个人也有一套思考,先从AI写代码,一个提交几千行代码,审核难的问题入手:
其实不只是审核问题。这直接挑战了版本管理的意义——版本管理本身是控风险的,现在一个提交就几千行代码,代码变更比业务需求变更还频繁,怎么控风险?
或许可以先评估「风险层级」,进而采用不同策略。为了行文简单,下文仅用「漏出功能缺陷代价」分层。
比方说,原本是框架、业务、插件三类代码。但同为框架,日志功能出错,风险比较低,而支付功能出错,风险极高。然后建一个简单的模型(如图一,具体自己调):
- 9分以上区域,绝对不能用AI编写,上线前最后的测试,覆盖率要100%,且经过人工回归测试;
- (5, 8]往常规开发要求来,并且遵守传统提交规范;
- (3, 5]引入生成式,随便造,但最好有AI审核,偶尔人工抽检;
- 其他随意,甚至可以考虑引入生成式交互,让高级用户自行生成自己满意代码。
这要求原本项目的结构清晰。另外肯定有需要优化的地方,比方说还要考虑安全缺陷,日志组件也可能会出安全问题,甚至导致服务器权限泄露。这方面比较复杂,不是一篇文章能梳理清楚的。
故事?
其实全世界都在讲故事。个别国家选了最会讲故事的人当领袖。
我再讲一类故事吧,一位漂亮妹子,在社媒露脸说自己开发了一款Agent软件,或是某款硬件产品——你会第一时间怀疑她骗人吗?
我以前提出过一个想法,大伙一起弄一个应用,然后其中一位漂亮妹子的工作就是在社媒声称自己主导做了这个(可能会说用到AI)。
好像几乎所有人,都很难去质疑故事。这可比讲道理高贵多了——讲道理天生把听众分为五类:听不懂的、听懂反对的、听懂支持的、听懂支持但用反对表达的、听不懂还反对的。
大伙喜欢用低维方法。如果是为他们设计产品,那么必须兼容低维。
我最近仔细琢磨,还是得少讲道理,少点评批;多写段子,多点故事。
尾声:笑话三则
AI重写大鬼
“Rust重写”小鬼少了,但“AI重写”大鬼多了。
还有让AI用Rust重写的王炸。
转发文本: 大鬼一只,几万行代码增删,重写KIMI cli,丢掉Python,采用ts,为啥不是Rust,不然就王炸了。评论区还有人贴了个百万行代码增删。
想发布产品但资源有限
- 正在内测
- 还在完善
- 打磨钝角
- 排队列表
- 太过危险
第三则在正文讲过。