即刻App年轻人的同好社区
下载
App内打开
卡尔的AI沃茨
101关注1k被关注1夸夸
公众号:卡尔的AI沃茨
让普通人轻松玩上ai
📌前字节码农|大模型六年经验|qs50
🙆分享好玩又实用的教程和测评
✊相信自己,无限进步
置顶
卡尔的AI沃茨
3年前
AI保姆级教程|ChatGPT,Midjourney,Runway

取代你的不是AI,而是比你更懂AI的人。普通人应该如何学会并使用AI产品呢?这里我推荐我开发的开源教程learnprompt.pro。初学者也不用担心,我们准备了基础、案例和高级篇的教程指南,详细讲解操作步骤。目前已经支持ChatGPT,Mid journey,Runway,后续也会开发Stable Diffusion的课程。希望大家学得开心😄
931
卡尔的AI沃茨
2天前
卡尔的AI沃茨
8天前
我整理了23个gpt image 2真实场景和提示语!一次性看个爽

Image 2能批量生图了,23个真实场景和提示语一口气学会!

10
卡尔的AI沃茨
8天前
Codex现在也可以用image2了,而且生成的网页用内置的浏览器打开后还可以在每个组件上备注定向修改,oppenai有点太夯了
10
卡尔的AI沃茨
9天前
之前好心疼Claude额度没有火力全开,现在我反手就是代码一个通用一个知识库一个ppt一个

我挖到了Kimi K2.6+Hermes的六个神技巧,这下多Agent 24h组队干活真成了

11
卡尔的AI沃茨
12天前
在线蹲lovart上gpt image 2,有批量生成后直接无敌

把工作流都打包成Lovart Skill,现在,我也是设计总监了

10
卡尔的AI沃茨
13天前
本来还想做个Claude Design测评的,结果对话三次额度就没了😢
71
卡尔的AI沃茨
14天前
让我蹲到@杨远骋Koji 直播了!HermesAgent直播回应抄没抄国内开发者。

在B站播了两小时,来的人不只有爱马仕 Agent 的业务负责人,还有MiniMax的首席架构师跟研发工程师。

我们先来回顾一下瓜的双方,
红方,Hermes Agent(Nous Research开源,主打自我进化 Agent)
蓝方,Evolver和EvoMap(国内开发者张昊阳团队自研的GEP【基因组进化协议】)

4月14日EvoMap发了一篇技术对比文章,一句话总结就是说Hermes Agent在架构层面复制了Evolver的设计。Nous Research的回应是项目仓库早在25年7月就建了。

所以我拉了一波时间轴,
2月1日: Evolver 开源,GEP 协议全面公开
2月16日:EvoMap 发布架构深度解析
3月9日: Hermes 创建自进化代码库
3月12日: Hermes v0.2.0 推出技能系统

EvoMap团队做了详细技术比对,
两个项目的三层记忆系统结构一致,周期性反射机制逻辑相同,进化循环都设置成了10 步,每个核心模块都能找到功能一样的对应文件,说是因为跨语言重写(Node.js → Python),所以代码里搜不到任何 EvoMap或GEP的字样。

但Hermes Agent也是有证据链的,
仓库确实是25年7月就有了,只是到2月底才公开,Hermes的自进化模块是用的斯坦福的学术框架 GEPA(ICLR 2026 Oral),跟GEP无关。

单从他们的架构上看,其实现在很多不同的Agent项目也都在做记忆管理,经验提取和反思啥的。
11
卡尔的AI沃茨
14天前
Claude Opus4.7上新:编程加量不加价眼神还好了

Anthropic刚把Opus 4.7放出来了,一句话总结就是加强了复杂编码,支持最高2576像素图像,还在high和max中间加了一个xhigh的推理强度(我称之为中杯,大杯,超大杯)。在大多数基准上优于 Opus 4.6,低推理模式下的4.7性能接近中推理模式的4.6了。

具体的更新👇

1. 编程能力更往工程能力上靠了

在Rakuten-SWE-Bench上解决的生产任务数量是之前的 3 倍,能自主构建完整系统(例如一个 Rust 文本转语音引擎)。

强调的不再是会不会写代码,而是,
- 长流程任务稳不问
- 指令跟随够不够准
- 会不会自己验证结果再汇报
定位从编程能力很强变成能独立干活的Agent

2. 视觉能力增强了,支持更高分辨率

长边最高2576像素,大概375万像素,是之前模型的3倍,成鹰眼了。

高清截图更适合模型用来
做computer use(计算机自动化)
读复杂技术图和UI细节
读化学结构/图表/技术示意图

375 万像素是什么概念?
是可以让Opus4.7的截图坐标跟真实像素 1:1 对齐。

3. 审美和品味更好了
Anthropic这次的日志还有一个表述,
更tasteful,更creative
人话是能产出更高质量的UI界面,PPT和文档

还有个关键背景,
Anthropic 上周提了 Project Glasswing(安全计划),还提到 Claude Mythos Preview(强到不敢放出来的模型)。最出圈的就是找到了几千个人类没找到的系统漏洞。

Mythos是暂时不会全面放了,但Opus 4.7 是他们第一个拿来测试新网络安全safeguard的模型,也就是说,

我4.7安全能力略逊于Mythos Preview
但我是首个带着新safeguard上线的模型😎

好消息是价格没涨,
API 价格保持和 Opus 4.6 一样,
$5 / 百万输入 tokens
$25 / 百万输出 tokens

再一个就是Claude Code也更新了,
- 新增了/ultrareview命令,用来检查代码,能标记bug和设计问题(Pro/Max 用户每天3 次)。
- Auto Mode(自主模式)现在max用户也能用了,不需要输入新建对话的时候加后缀了

Claude Code的更新速度最近快到离谱啊,从 13号开始一天一版。

我直接做了个定时任务,
让CC自己每24小时上去看看,
有新的,对我有用的就更新后告诉我用法

🔗 code.claude. com/docs/en/changelog
🔗 anthropic. com/news/claude-opus-4-7
00
卡尔的AI沃茨
15天前
GPT image 2有点离谱了
00
卡尔的AI沃茨
15天前
可算有解决Claude降智和偷Token的神配置了

Claude今天上了Routines,主打7*24小时干活,结果我看到超多吐槽Opus 4.6太笨,token烧得比瀑布还快,还要上实名认证。所以我把缓解降智和token烧太快的方法都试了一遍,一次性说清楚。

先硬刚降智,
既然Anthropic会动态调整模型的思考预算降智,那我们直接上个固定档位!

PS:把下面这段发给CodeX配置就好


修改本地Claude Code的~/.claude/settings.json配置文件
{
"effortLevel": "high",
"env": {
"CLAUDE_CODE_DISABLE_ADAPTIVE_THINKING": "1",
"MAX_THINKING_TOKENS": "31999",
"CLAUDE_CODE_DISABLE_1M_CONTEXT": "1",
"CLAUDE_CODE_AUTO_COMPACT_WINDOW": "200000"
}
}


1.effortLevel就是告诉模型用更强的推理能力。也可以设置成max,但这样简单任务也会思考几十钟。

2.CLAUDE_CODE_DISABLE_ADAPTIVE_THINKING是把自适应思考停了,缓解降智。

3.MAX_THINKING_TOKENS是给模型的思考预算上限,32k够用了,也可以拉满128k。

4.后面的1M和200k是把1M上下文停了,每200k压缩上下文,这样超长上下文就不会影响性能。

还有一个可以考虑开的,"CLAUDE_CODE_MAKE_NO_MISTAKES": "1",会调到谨慎模式,避开低级错误。

还有一个巨坑人的设置,之前设置了CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1,是为了不把使用数据发给Anthropic,只要设置了,订阅用户的一小时缓存(上下文有效时间)就会被砍到五分钟,大亏,要知道只要缓存还有效,对话的上下文就基本不耗额度。

还有一个使用习惯可以省token,只要对话里的任务没换,或者距离上条消息没有过一小时,就不开新对话。很多人都统计过,每新开一次对话,就消耗4到6万个Token,拿去加载系统提示,项目记忆和各种插件。

那怎么知道现在用的CC是真被降智了?这有几个量化指标。

第一个,是读改比
正常是大量读取上下文再修改,比例在6.6比1。降智的是看一眼就改,读改比降到2比1。

第二个,是思考深度
在Plan模式下,正常思考过程的字符数大概在2200个token,降智后会跌到600。

第三个,是中断频率
CC在没完成任务前,就提前问是否继续。如果这个频率明显增加,说明它傻了。

我们甚至可以去 aistupidlevel点info 上看模型是不是被大范围降智了,不同模型在不同时间段有不同程度降智。Opus 4.6通常在晚上7点和11点,会有性能下降。

没招了,
要不奥特曼把Claude蒸馏了,
出一个GPT全能王吧,
至少GPT Pro我用起来是真没负担。
13