即刻App年轻人的同好社区
下载
App内打开
行小招
96关注339被关注0夸夸
探索AI在企业的落地应用场景
记录关于大模型的一切闪念、想法、洞察
置顶
行小招
5月前
prompt 的撰写技巧只是“术”的层面,不能说不重要,但是更底层的东西“道”,“道”是你的认知层级,思维方式,和看穿本质的能力。“问的问题”本身是最重要的,你问出什么问题,远比你怎么问更致命。因为提问本身就暴露了你思考的天花。

相当于武功里面的,招式 vs 内功,张无忌学的太极拳为啥招式都忘记了,打出来,还那么厉害?

举个例子:
1. “帮我写一篇中国咖啡外卖市场的调研报告。”
2.“我想写一篇关于中国咖啡外卖市场的调研报告。请帮我分析一下市场规模、主要玩家(瑞幸、星巴克、Manner)的商业模式和优劣势,并预测一下未来的发展趋势。”
3. 见图
00
行小招
15天前
ChatGPT 今天出了 $100 Pro 5x 档位,GPT 5.4 在后端研发领域,尤其是疑难杂症、复杂度高的问题、整个仓库级别的排查、跨多个代码仓库的问题定位和整理上,一次成功率早已超过 Opus 4.6,

每天干活的体感,xhigh 模式下解决疑难杂症,那种深入程度和稳定性,区别蛮大的。

ps: 5.31 日之前,10倍额度
00
行小招
17天前
Agent memory 这个词已经烂大街了,但体感下来,十个人聊 memory,八个人说的不是同一件事。

我梳理了一下,市面上说的"memory"至少有四层意思,混着聊就是口径不一致:

一,短期记忆:最近 n 条对话 history,所有 AI 产品自动带的,你在一个会话框里聊过的东西模型都知道,这不叫"有记忆",这叫"聊天历史"。

二,固定背景:你的名字、偏好、项目上下文这些不变的东西,CLAUDE.md、ChatGPT Custom Instructions、OpenClaw user.md 解决的就是这个,手动维护或者 Agent 帮助更新,一次写好长期生效。

三,自动沉淀:聊了几十轮之后 context window 撑不住了,模型该自己提炼有价值的信息存下来,关键时刻能调出来,Claude Code project memory、OpenClaw memory.md 走的是这条路。往企业级推,成百上千用户的记忆需要存储、检索、遗忘、冲突处理,这就是 mem0 这类中间件干的事了。

四,完整上下文:Agent 长时间自主运行,产生的文档、代码、工具调用结果,已经不只是"记忆"了,是整个上下文的结构化管理,字节开源的 OpenViking 定位在这一层,用文件系统范式统一组织 memory + resource + skill,思路比单纯做 memory 大一截。

大部分人讨论 memory 的时候其实卡在层次二和层次三之间,真正拉开差距的是层次三的自动提取、存储、检索能力,这才是 Agent 从"工具"变"同事"的分水岭,而这里面含有大量的工程化的细节要去做。

ps:企业做 Agent 选型可以看看 mem0,开源轻量级,LOCOMO benchmark 上比 OpenAI Memory 准确率高 26%,定位是 Agent 和存储之间的中间件层,支持广,插上就能走不错的 memory 能力。
00
行小招
17天前
模型能力的 scaling 远没有到头,“Opus 天花板”这个假设已经被打破了,你看 Claude Mythos Preview ,碾压级别的存在,人类编程可能不存在了!
00
行小招
22天前
Simon Willison 说了句大实话:熟练使用 coding agent 需要他 25 年的全部工程经验,同时开 4 agent 并行干活,到上午 11 点就精疲力尽了。

最近体感完全一样,瓶颈越来越不在 AI ,而在我自己,AI 干活是真快,几分钟就把代码甩出来了,但你审查、确认、判断的速度跟不上,最终产出还是被你自己的认知带宽卡住。

所以大家真不用太焦虑什么"AI 替代人",也不用卷 AI 工具的熟练度,卷到最后你会发现,瓶颈依然是你这个人本身。AI 提高你的效率很快,但 AI 提高你能力的上限,很慢,甚至可以说,有没有 AI 这个上限提升的速度差异不大。

工具再快,审查负责人的还是你自己的脑子。
00
行小招
23天前
模型会犯错这事没法避免,但系统不能因为模型犯错就崩了,流程不能因为一次幻觉就断了,这是企业里落地 Agent 重点要关注的事情,

熔断、降级、兜底,这些在微服务时代就玩烂了的东西,现在要用到 agent 身上,

Harness 本质上干的就是这件事,不是让 agent 更聪明,而是建各种稳定性方案,让 agent 犯错的时候系统还能兜住。

体感上,企业用 AI 最怕的不是"不够强",是"不可控",你不需要它创造奇迹,你需要它把 SOP 老老实实跑完,且长期稳定运行,不搞幺蛾子。

ps:这可能是CC CLI 的代码泄露对应用开发工程师可学习借鉴的地方!
00
行小招
26天前
同样是 $20 $200,Anthropic OpenAI 的产品分层逻辑完全不一样。

Claude 的做法是,$20 Pro 用户能用 Opus 4.6、Sonnet 4.6、Haiku 4.5,全系列模型一个不少,你升 Max $100 $200,买的是更多用量,模型还是那些模型,体验还是那个体验。说白了,Anthropic 卖的是算力额度,不是功能特权。
ChatGPT 不一样,$20 Plus 能用 GPT-5.3 GPT-5.4 Thinking,但 GPT-5.4 Pro 这个最强模型是 $200 Pro 层级独占的,你不掏 200 刀就永远摸不到天花板。

这两种设计理念的差异,体感下来影响很大。Claude 这边,我 $20 就能体验到 Opus 的强悍,用多了自然升 Max,决策很简单:“我认可这个模型,我需要更多额度”。ChatGPT 那边呢,你让我花 200 刀去赌一个我从没用过的模型”可能更强”,这个转化链路天然就有问题,你连体验的机会都不给我,我凭什么为”未知的好”买单?

好产品的定价应该是让用户先爱上天花板,再为用量付费,而不是把天花板藏起来当成 VIP 门票卖。

ps:3 个月前我还是 ChatGPT 200 美金的付费深度用户,现在已经变成了 200 美金的 Claude 会员,OpenAI 变成了 20 刀,用脚投票比什么分析都诚实。
20
行小招
28天前
很多企业都使用dify 搭建自己的大模型平台,随着agent 用量的增大,卡顿、响应慢,性能终将成为瓶颈,而最快速的解决方法就是把 pg 的日志表迁移走,

升级到 1.11.2 版本以上,直接使用阿里云 SLS ,或者自己改造适配下 repository ,使用自己的 elk 存储也可以。
00
行小招
1月前
国产各厂“龙虾”生态图,toB vs toC
00
行小招
1月前
微信的 openclaw 插件是另外一个 channel,不影响你现在使用的,但它默认是主 agent 答复,所以能使用相同的记忆和行为习惯。

这个插件还比较原始,没有富文本效果,如果你有一些定时任务依赖富文本的,还是使用之前的吧。

但能无缝跟微信环境打通,是非常方便的,之前的 qclaw 只是在微信客服里面的二级入口,不像现在,直接是一个聊天对话框,还能置顶显示,相当便利。
00