即刻App年轻人的同好社区
下载
App内打开
Tefnut
449关注311被关注4夸夸
🧑‍🏫ENTP-T 6w7
🗂在和遗忘做抗争
💻CS PhD/Al4Science->Structural Biology
Tefnut
4天前
从现状来看, openclaw 远未达到生产环境的标准,它更像是一个为了验证思路而匆忙写就的学术demo。目前它的构建高度依赖 vibe coding,但这种大力出奇迹的模式迟早崩溃,未来的演进方向必然是转向使用 Rust Zig 这样更高效、更严谨的系统级语言,并且使用更好的工程结构来控制复杂度。

在使用 openclaw 的过程中,我最深恶痛绝的就是直接让 Agnet 直接去操作 JSON 等底层配置文件。AI 本质上是在算概率,输出具有不可控的随机性。如果允许 AI 拥有直接以字符级别改写系统配置的权限,无异于在没有安全检查的情况下运行一段不可信的代码。只要 AI 产生一次小小的幻觉写错了一个字符,就可能引发整个系统的状态崩塌。至少要把配置文件都藏起来,只留下一套鲁棒的命令行接口(CLI)来控制交互的复杂度。

与此同时,传统的工作流与GUI 并不应该被舍弃。目前的 openclaw在使用 token 上过于粗放,我有一些工作流放在里面也只是以 markdown 格式存储,但是坦白来说常用工作流还不如迁移到 n8n 上只让 openclaw 来触发即可。在我的早期实践中,当我使用 openclaw 运行工作流时,如果工作流过长,Agent 可能会因为上下文而性能降低,无法规范统一。为了监控中间结果,我还不得不在 Notion 中专门创建了一个 database 用于更新记录。但是,可以很明显地看到,它更新记录时的表现并不稳定。所以,正常的方式应该是让 openclaw 运行一段时间的工作流。如果稳定且有固定需求,就迁移到其他的工作流平台上。

使用 AI Agent 直接操纵文本文件还有一个巨大的弊端,就是没有快照功能。也就是说,我的状态是无法修复的,这对于重要工作来说绝对是不可饶恕的。我想这也是为什么大家虽然鼓吹 coding agent 更加适用于 Obsidian 而不是 Notion,但是 Obsidian 却推出了 CLI 的原因。有了每一次具体操作的概念,我们就有了记录的基础。 从这一点上来说,我现在很看好 Notion,我已经看到了 Custom Agent 能做的事情。
61
Tefnut
8天前
最近在思考一个概念:人类的后训练 (Human Post-training)。
如果我们把原本的教育和成长看作预训练 (Pre-training),那么成年后对自我的再教育、对习惯的重构,本质上就是一场针对自身神经网络的 Post-training。大多数人之所以难以改变,受控于某种生物性的过拟合,是因为他们缺乏对自己进行 Fine-tuning(微调)的底层能力。
参考 LLM 的演化路径,这种自我对齐的失效往往源于两个维度的缺失。
首先是 Reasoning(推理)的本质被误读了。在改变习惯的语境下,Reasoning 不仅仅是逻辑的自洽,更是一种高维度的 Context(上下文)锚定。当我们试图植入一个新的行为范式,如果仅仅把它作为一个孤立的指令,它很快会被日常的噪声淹没。真正有效的 Reasoning,是强行将这个新行为与你所处的真实世界——那些物理环境、时间流、甚至情绪触发点——建立广泛且稠密的连接。通过这种思维链的扩展,你实际上是在提高该行为在生活场景中的召回率 (Recall)。你不是在强迫自己记忆,而是在编织一张让新习惯无法逃逸的语义网。
其次是对于重复的去魅。很多人厌恶重复,认为它是低效的机械运动。但在神经系统的层面,没有重复就没有梯度下降 (Gradient Descent)。认知的改变只是调整了提示词 (Prompt),而物理层面的突触连接——也就是我们所说的习惯——必须通过高频次的 loss 反向传播来更新权重。
缺乏 Reasoning,行为就没有索引,无法被生活唤醒;缺乏重复,认知就无法固化为直觉。

所以,高阶的自我进化,其实就是一个人同时扮演模型和算法工程师角色的过程。在这个过程中,最核心的竞争力,或许就是你能否设计出足够复杂的 Loss Function,来指引自己走出局部最优解,完成那场漫长而痛苦的对齐。
#把自己当做LLM
32
Tefnut
8天前
看着现在涌现的各类应用,很容易察觉到一种底层生产关系的变动。LLM 将代码生成的边际成本无限拉低,曾经作为核心生产资料的代码,正在被迅速去魅。

这种门槛的消解自然引出了防御性的直觉。当一个复杂的工程可以通过自然语言指令在极短的时间内被重新编译,跟随者的复刻成本几乎归零。从古典商业竞争的角度看,逻辑的推演必然指向闭源,试图通过人为制造信息差来重建壁垒。但我认为这是一种对当前技术周期的误判。

这里的核心问题在于对创造物本质的混淆。在 LLM 面前,语法和常规代码片段已经不再是核心资产,而仅仅是思维的副产品。即使我们将最底层的系统完全开源,绝大多数人依然无法在此基础上进行有效的演化。这是因为复杂系统具有不可还原性,代码表面记录了功能的实现,但并没有记录它为何如此设计的否定性历史——那些被抛弃的架构路线、对特定边缘场景的权衡,以及开发者在无数次迭代中建立的领域直觉。

当复刻者用极低的成本照搬了源码,他们实际上只是在时间轴上截取了一个静态的切片。一旦脱离了原作者的认知上下文,面对新的真实需求或技术环境的扰动,这些缺乏内部逻辑支撑的项目就会陷入停滞。给一个人开源项目和强大的 LLM,并不能自动赋予他将混沌转化为秩序的系统工程能力。

因此,在当下的语境里,是否开源不仅是一个策略,更是一个社会学意义上的筛选机制。在价值观上,我们依然选择与开源精神站在一起,是因为在这个复制品泛滥的系统里,我们需要一种高信噪比的信标。

开源本身就是一种信号的发射。我们清楚地知道,这个世界上绝大多数获取这些代码的人,只是在进行无效的搬运或拼凑。但我们依然敞开内部的结构,是为了跨越物理和组织的边界,去寻找那些真正具备同等认知能力的人。我们在用代码的品味和架构的取舍,去呼唤那些能够理解这些代码背后的逻辑前提、并能在同一个维度上继续创造的同伴。这或许就是在生成式 AI 削平了表面门槛的时代,开源作为一种精神契约,最无法被替代的现实意义。
01
Tefnut
10天前
习惯了桌面端 Fn 键一触即发的语音输入后,再看手机,只觉得厌烦。iOS 的沙盒机制导致语音必须跳转,这种人为的阻滞感生生切断了思维的连续性。
关联着高效语音输出的,其实是三件具体的事情:
第一是生产资料:女友送的 DJI MIC,曾被她笑称为玩具,在我看来却是器官。这不仅仅是因为便携,更关乎信噪比。人类的大脑处理噪声的效率极低,底噪本质上是在侵占思维的带宽,所以怎么提高信噪比都不过分。
第二是环境:我需要确信自己处于一个无人凝视、由我主宰的私密场域。这对于人类来说并不容易——作为社会性动物,我们的基因里往往深植着从众的本能。唯有在绝对的私密中,语言输出才能摆脱潜意识的自我审查,真正与自我意志对齐。
第三是自我的改造:云端的延迟还是会干扰心流,于是我转向了本地运行的 Parakeet 模型。这倒逼我改造自己:改用英语输入,只是因为 Parakeet 不支持中文;训练结构化口语,强迫自己在开口前完成逻辑编译与稳定输出。
我想,这正是 AI 时代的《A Room of One's Own》。Virginia Woolf 曾说创作需要物质基础和独立的房间。而在当下,为了获得我们所期待的那种产出,这些具体的条件依然发挥着不可替代的作用。
30
Tefnut
11天前
openclaw 里跟 MiniMax M2.5 High Speed 以及 GPT Codex 5.3 交流的时候,我会明显感觉更舒服一些。于是自然会问:为什么跟人一起工作时,很少有这种顺畅感?

问题并不复杂,本质还是人类输出的带宽太低。人类生成 token 的速度很慢,多模态信息的表达成本更高。要输出一段完整、详尽、且不产生歧义的文本,对人来说代价极大。正因为如此,人类才习惯用对话的形式沟通——不是因为对话本身更优,而是因为一次性表达清楚太难。

所谓对话,其实是在压缩信息的前提下,通过多次往返不断修正彼此理解。这个机制隐含着一个前提:你默认对方脑中已经存在一个假设,而且这个假设与你的差距不会太大,否则沟通根本无法展开。一旦假设空间偏离太多,来回互动也只是在增加摩擦。

在过去,单次少信息、高频率的交流方式是相对高效的,因为人的表达能力决定了只能这样。但在 LLM 出现之后,这个约束被改变了。高密度、完整、结构化的单次输出变成低成本行为,那么原有的沟通范式就不再是唯一选择。

进一步看,在大部分组织结构中,其实并不需要大量双向的信息流动。很多信息管道完全可以改成单向。关键不在于互动频率,而在于单向传递时是否提供了完整、无歧义的信息。一旦信息本身足够完整,所谓的“沟通带宽问题”就不再是核心矛盾。
00
Tefnut
11天前
OpenClaw 用久了,便觉得每个成年人都该好好用一下它。既然同一模型的智能水平是相对恒定的,那它就是一面稳定的镜子,照出的其实是我们自己:我们是否具备清晰的沟通力,是否真有能力带领团队拿结果。
当好 Agent 的领导其实并不容易。所谓领导,剥离掉“玩平衡术”的部分,本质无非就是给资源、给经验、担责任。
AI 也是同理:你是否舍得为高级模型的 Tokens 投入资源?你是否有能力将任务拆解清晰,写出精准的文档让 Agent 照章执行?你是否有能力评估输出,并给出准确反馈帮助它迭代?尤其是当它犯错时,你能不能控制住脾气,不气急败坏,而是梳理问题、总结经验,最终修正闭环?
00
Tefnut
11天前
有一类incremental的工作我很喜欢,就是给整个pipeline加速的,效率的提升才让很多所谓有学术价值的想法有了实现的可能。

对于写代码来说也是,我支持把所有东西用Rust重写一遍。
00
Tefnut
14天前
一夜之间draw.io和excalidraw都有了官方的MCP server,然而LLM的空间感知能力仍然很差。
00