woc??Claude Code源代码泄露了????
今天Anthropic再次因为打包疏忽(未剔除npm包中的source map文件
导致最新版Claude Code的客户端源码被完整提取
基于目前流出的代码结构
有几个工程细节值得从业者关注:
1️⃣极度精细的提示词缓存Prompt Cache管理
在当前大模型 API 的计费和调度体系下
缓存命中率直接决定了工具的响应速度和运行成本
源码显示Claude Code内部对 Prompt 进行了严格的动静分离
身份设定、系统规则等全局可复用的内容被固定在前段
而动态的目录信息和记忆则置于边界标记后
此外他们甚至对注入的工具描述、文件路径进行了哈希处理和强制的字母表排序
这是为了最大程度防止微小扰动导致缓存失效
是极为务实的成本优化策略
2️⃣解决上下文污染的隔离机制
现阶段 Agent 开发的一个痛点是
模型在执行中间任务(如全局检索或试错运行)时
会产生大量过程日志
进而污染主干上下文
代码中的 Fork Subagent 机制提供了一个较好的解法:
在处理具体工具调用时派生子会话
继承主会话的缓存状态
但在执行完毕后
仅通过轻量级的 XML 标签<task-notification>将最终结果传回
这种设计保证了主线对话的整洁和长期推理的稳定性
3️⃣基于小模型的动态安全分类器
在权限管理方面
常规做法是依靠静态规则或高频的弹窗确认
但代码中包含了一个名为 yoloClassifier 的模块
它通过发起一个较小的“侧查询”(Side Query
让 LLM 结合当前的转录历史来动态评估某个 bash 命令或文件操作的风险
用模型来做安全守门员
在易用性和安全性上取得了平衡
4️⃣提示词的差异化分发与卧底模式
有趣的是系统对内部员工(Ant-only
和外部用户下发了不同的System Prompt
内部版本更偏向极客
要求只写代码,默认不写注释
外部版本则更注重沟通的温和与通用性
从工程角度看
通过强制 Prompt 规范输出行为
是一种顺应业务需求的务实处理。
Claude Code其底层架构
如持久化的MEMORY记忆树
KAIROS后台守护进程模式
多Worker协调机制
正在向一个系统级的常驻数字助手演进
对于目前从事AI infra和Agent框架设计的团队而言
这份代码在架构分层和细节打磨上
提供了一份具有较高参考价值的工程样本