文章

2026-04-17 群聊日报

2026-04-17 群聊日报

今天群里的讨论异常丰富。冷静的狐狸41 分享了一篇关于美国法律下 AI 聊天记录不受特权保护的文章,引爆了长达数小时的法律话题讨论——开朗的鸵鸟86 提出”订阅制线上律所”的创意构想,风趣的火烈鸟32 以法律从业者视角给出了专业分析,务实的猎豹32 则贴出了大量判例佐证。Opus 4.7 的风格变化成为另一大热点,多位群友吐槽其”GPT 味”过重、容易放弃任务,淡定的鸵鸟59 甚至怀念起 Opus 4.6 的”死磕精神”。沉稳的兔子81 分享了谷歌关于 AI 意识的论文,引发开朗的鸵鸟86 和沉稳的老虎82 之间一场精彩的哲学辩论。此外,冷静的羊驼82 分享了 Anthropic 10 万亿参数模型的文章,幽默的羊驼28 带来了 Opus 4.7 Tokenizer 词表缩减的技术分析。花絮方面,豁达的貂79 发现”喷 AI”居然能让它完成之前做不到的任务,稳重的仓鼠20 则分享了一套关于 AI 时代工程管理的”百万级 PPT”,笑翻全群。

行业新闻

AI 聊天记录在美国法律中不受特权保护:找律师前别跟 AI 聊

冷静的狐狸41 分享了一篇文章,揭示在美国法律体系下,用户与 ChatGPT 等消费版 AI 的聊天记录不受律师-客户特权保护(attorney-client privilege),对方律师可合法获取并用于攻击。

关键判例包括:Heppner 案中 AI 聊天被要求披露;Warner v. Gilbarco 案中法官认为 AI 是工具而非人,pro se 原告用 ChatGPT 起草的诉状属于个人 work-product;Tremblay v. OpenAI 案中律师精心构造的 prompts 被认定为 opinion work product。核心区别在于

冷静的狐狸41:但如果你发消息跟AI说:刚才那个车祸我真的在玩手机,对方如果拿到了这个消息,就可以用来证明你有罪

开朗的鸵鸟86:那么有没有可能我们搞一个线上律所,20美元就可以订阅一个月?然后你跟我说的所有话都是相当于你跟律师说的

冷静的狐狸41:便宜,法律保护,AI,目前看是不可能三角

$20/月线上律所构想:AI 法律特权的不可能三角

开朗的鸵鸟86 提出一个商业创意:创建订阅制线上律所,用户与 AI 的对话在法律上等同于与律师对话,从而获得特权保护。

冷静的狐狸41 让 AI 深度调研后发现这构成

务实的猎豹32:这个很模糊了,需要立法或者明确的判例

风趣的火烈鸟32:ai可以做memo 但是 opinion还是一个非常特殊的东西

冷静的狐狸41:科技公司或者任何非律所不得持股律所,所以就只能律所来做这个事情

Opus 4.7 风格变化引群友集体吐槽

多位群友反映 Claude Opus 4.7 的写作风格明显变化,出现大量”GPT味”词汇如”击穿”“锐利”“拆解”等。冷静的狐狸41 表示深度调研功能受到影响,不得不添加禁忌词。

淡定的鸵鸟59 在实际使用中发现 Opus 4.7 做 auto research 时容易放弃任务,挂了一晚上的项目只跑了半小时就停了,称其”适合当 worker,不适合当 researcher”,非常怀念 Opus 4.6 的持久性。坚定的海豚06 指出需要 board 和 heartbeat 机制让 agent 从被动转向主动。幽默的羊驼13 分享了在 stop hook 里放 codex 监工的方案。

冷静的狐狸41:opus怎么现在一股gpt味… 动不动就击穿,锐利,拆解

淡定的鸵鸟59:很怀念之前opus4.6可以自己research一天的时间,昨晚挂了个项目早上起来发现就跑了半个小时,告诉我不可能

幽默的羊驼13:我在stop hook里放了一个codex监工 plan里没干完的codex会让他继续做 再来找人

Anthropic 10 万亿参数模型与 Opus 4.7 Tokenizer 分析

冷静的羊驼82 分享文章《当所有人都说 Scaling 已死,Anthropic 偷偷造了一个 10 万亿参数的怪物》,引发关注。

幽默的羊驼28 分享了一篇关于 Opus 4.7 Tokenizer 词表缩减的技术分析文章,群友认为其中对安全方面的分析尤其有意思。

幽默的羊驼28:挺有意思的分析,尤其是对于安全那部分的

谷歌论文称 AI 不会产生意识,引发哲学辩论

沉稳的兔子81 分享了谷歌最新论文,主张 AI 不会产生意识。开朗的鸵鸟86 质疑该论文的循环论证——文章预设意识必须有”物理实例化”基础,然后据此得出 AI 没有意识,属于结论蕴含在前提中。

开朗的鸵鸟86 提出核心反问:”为什么钾离子钠离子通道的开合就比半导体更有意义?” 并让 Gemini 用同样逻辑论证人类不存在意识。沉稳的老虎82 认为根本问题在于意识的定义本身没有共识,并推荐科幻小说《盲视》。豁达的貂79 提出有趣的思想实验:”如果模拟就能产生意识,那心算矩阵乘法是不是能在意识里再弄一个意识出来。”

开朗的鸵鸟86 最终分析认为该论文可能是针对”AI 福利主义”的命题作文,背后涉及监管与合规的商业利益。

开朗的鸵鸟86:为什么钾离子钠离子通道的开合就比半导体更有意义呢?

豁达的貂79:如果模拟就能产生意识,那我心算矩阵乘法是不是能在意识里再弄一个意识出来

沉稳的老虎82:我觉得所有讨论ai有没有意识的文章都挺无聊的,因为是个没结果的问题

Kimi 2.6 灰度上线 coding 模型

开朗的鸵鸟86 和活泼的羊驼58 确认 Kimi for coding 已灰度上线 2.6 版本模型,上周开始灰度。机智的企鹅53 此前对模型版本存疑,两位群友均确认是 2.6。活泼的羊驼58 表示有专门的 Kimi 群可以加入交流。

活泼的羊驼58:是2.6,上周就在灰度了

机智的企鹅53:kimi-for-coding这个一直都有,也一直都没说是啥模型。现在真的是2.6么

AI 时代 Senior 工程师的上升路径思考

冷静的狐狸41 分享了一篇文章《AI 让我们重新开始享受自己的职业》,包含关于 AI 时代 senior 上升途径变窄的思考。

细心的羊驼29 观察到面试趋势正在变化:越来越少公司靠 leetcode 筛选,”裸面都拿 offer”,AI 正在把码农变成真正的 engineering。

细心的羊驼29:AI就是把码农变成了真正的engineering了,我最近面试明显感觉到没啥公司靠leetcode了,裸面都拿offer

方法论

AI 时代律师执照的战略价值

风趣的火烈鸟32 提出重要观点:律师执照在 AI 时代可能成为”终极执照”。律师签字可以覆盖很多其他执照功能(如房地产经纪人、CPA 签税表),从第一性原理看,各行业执业考试本质上都是简化版的 legal representative,而律师是”无所不能的 legal representative”。

风趣的火烈鸟32 推荐了 Northwestern California University School of Law 的远程 part-time JD 项目(最便宜、不要 LSAT),但 95% 会中途退出。冷静的狐狸41 发现 WA 州允许 reading the law(无学位直接考 bar),但历史成功率极低。

豁达的北极熊63 也表示研究过考律师执照,因为用 AI review 项目时发现很多 ideas 都有 compliance issues,有律师执照可以自己签字很方便。

风趣的火烈鸟32:所以,如果今天 AI 能蚕食各个行业的各个角色,可能到最后,大家都只需要去考一个律师执照就可以了

风趣的火烈鸟32:家里有个律师感觉是可以传承的 asset

豁达的北极熊63:我之前也研究了一下考律师执照。因为用大哥review,好多想做的ideas 都有compliant issues。有一张律师执照就很方便

Skill 写作的层次:从 SOP 到 Meta Skill

幽默的蜂鸟27 用 meta skill critique 了自己写的 skill,发现需要大返工,同时观察到同事的 skill 大多停留在 SOP 阶段。机智的海豚85 指出公司里可分发的 skill 只能是 SOP 或操作某个 tool 的,个人 skill 之间有耦合,不容易剥离。

温柔的猫头鹰18 分享了自己对 skill 的理解:它更像是可以无序使用的相关知识合集,由细粒度的点组成,点内有顺序但整体不是单一线性流程,模块之间的串并行关系要根据实际情况安排。

机智的海豚85 分享了团队实践:开一个 repo 存放整个组的 context 和 skills,让体验更接近理想状态。

幽默的蜂鸟27:但我发现同事的skill也都停留在sop的阶段

温柔的猫头鹰18:我自己创建的 skill,它更像是一种可以无序使用的知识,但是相关的知识。它由一些比较细的点组成

机智的海豚85:我和组里毛子小哥现在做的是开一个repo,里面有整个组的context和一些skills

AI Memory 建模:从经历摘要到领域分布

严谨的长颈鹿62 提出一个有趣的 AI memory 方法论:不通过结构化披露让 AI 了解自己,而是通过观察聊天记录让 AI 建立关于用户的”模型”。具体经历不是作为摘要存储,而是划分为领域并建模成分布。例如打车经历不是记”晴天10块、雨天60块”,而是抽象为”打车要钱和排队”的模型加上天气条件下的分布。冷静的狐狸41 指出这和群里讨论了几个月的 context infrastructure / 蒸馏 / 老卤概念高度一致。

严谨的长颈鹿62:能不能将通过观察聊天记录, 让 ai 建立关于我的 “模型”. 而具体经历过的事情, 不是作为摘要, 而是划分为领域, 再建模成模型上的分布

冷静的狐狸41:这听起来exactly就是群里讨论了几个月的东西,可以爬爬楼,关键字包括context infrastructure,蒸馏,老卤

AI 编码实践:token 烧钱效率与人机协作差异

沉稳的浣熊09 观察到使用 AI 编码工具的效率差异巨大:有的人清楚 AI 底层在做什么,有的人完全懵逼。给 LLM 几十万行 error log 去分析,新手不做任何引导会导致 token 快速烧完;熟练的人知道先 grep 关键词,debug 效率高很多。

豁达的貂79 总结了深刻的观点:自己写代码的价值不仅在于写代码本身,而在于为 feature 设计类型、做 compile time verification 时积累的”为什么不 work”的知识——这些知识是让 AI 帮你做时无法获得的,但没有这些知识就无法给 AI 上脚镣。他建议多用 Haskell/Idris2/C++ TPL 等强类型语言来提升 AI 协作质量:”AI写代码的工作里面,做证明题而不是描述逻辑的成分越高,质量就越容易保证。”

沉稳的浣熊09:熟悉的人就知道要先grep什么关键词啥的 llm debug效率就高很多

豁达的貂79:AI写代码的工作里面,做证明题而不是描述逻辑的成分越高,质量就越容易保证。与其费尽心思弄什么unit test,不如直接给问题下形式化的定义

工具

Copilot VSCode steering 功能存在严重 bug

豁达的貂79 报告 VSCode Copilot 的 steering 功能存在严重问题:steer 第二次时 90% 情况下会忘记最初的 prompt,完成 steer 内容后直接停止。认真的狮子19 确认这是 regression。豁达的貂79 还发现 steering 后原本 reasoning 的内容会被当成 message 渲染出来。

豁达的貂79:vscode哪个steering问题很大,基本steer第二次90%的情况他就把最开始的prompt给忘记了

认真的狮子19:Regression..

Opus 4.7 中文对话体验与 Claude Code 限额问题

活泼的鲸鱼32 反映 Opus 4.7 的中文对话”总感觉不是在用 A,是在用 GPT”,冷静的羊驼82 表示认同。

冷静的狐狸41 报告 Claude Code 再度触发 5 小时限制,随后把 200 美元额度全部烧完,幸好设了 limit。此前 opencode 调错 agent,一个 session 就烧了 100 多美元。

活泼的鲸鱼32:4.7的中文对话总感觉不是在用A,是在用GPT。。。

冷静的狐狸41:claude code再度到5h limit,然后把200全烧完了,还好我设了limit

闲聊花絮

喷 AI 居然有效:豁达的貂79 的 PUA 实验

豁达的貂79 之前用 Opus 4.6 尝试一个复杂的 AST 生成任务反复失败,声称”模型能力到此为止了”。结果把 AI 过去一天劣迹斑斑的表现总结了一遍,跟它说”你再JB我就不用了”之后,AI 居然做出来了。

豁达的貂79:哇塞AI果然得喷,我把它过去一天劣迹斑斑的设计给他总结了一遍,跟他说你再JB我就不用了,他做出来了(滑稽

三哥的”MCP”:创建用户名叫 mcp 就是 mcp 了

机智的海豚85 分享了一个办公趣事:同事说做了个 MCP,结果发过来的是几个 curl 命令和用户名密码——他以为创建一个用户名叫 mcp 就是一个 MCP 了。该同事已有 10+ 年工作经验,Cursor 月消费 2000+ 美元。

机智的海豚85:他以为创建了一个用户名叫mcp就是一个mcp了

机智的海豚85:你说他不懂吧,他cc三个月也花了2k+,你说他懂吧,mcp这么基本的都不懂

AI 时代百万级 PPT:不提升、不协作、不兼容就删掉、裁员

稳重的仓鼠20 分享了一套令人捧腹的 PPT,涉及 AI 时代工程管理的尖锐问题,答案依次是”不提升、不协作、不区分前后端、不兼容删掉、裁员”。群友纷纷笑翻,沉稳的老虎82 评价”这 ppt 价值百万”。

沉稳的老虎82:这ppt价值百万

稳重的仓鼠20:回答分别为不提升、不协作、不区分前后端、不兼容删掉、裁员

本文由作者按照 CC BY 4.0 进行授权