即刻App年轻人的同好社区
下载
App内打开
pimgeek
329关注2k被关注13夸夸
📜数字草稿纸 专注笔记术📝
🥐思考面包屑 创意脚手架🪜
🤓 期待交流 🤝🏻 微信同名 💬
置顶
pimgeek
2年前
每隔一段时间就想重新做一次自我介绍,突出近期的个人兴趣侧重点 🤭

简单概括,pimgeek 是 PIM 和 Geek 两个词的组合,其中 PIM 是个人信息管理的英文词组首字母缩写,Geek 指对某些小众爱好保持极端兴趣的人。

就个人而言,我的长期兴趣始终是这个:『弄清大脑/思维/意识活动背后的复杂系统工作原理。』🧠

为了随时随地都有条件抛开手头一切杂事去开展相关研究,很明显我需要一份比较特殊的工作。迄今为止,我尚未发现一种合适的工作职位能够平衡个人生计与这种强烈的研究兴趣,所以我逐渐变成了一位自由职业者。

在即刻社区,我专门购买了🍌黄即年费会员并订阅了 “自由职业、自由工作、远程办公、远程工作、Freelancer、Remote” 等话题关键词,只要有人反复谈论这个话题,都会被我关注到。如果看到喜欢的内容,我还会转发推荐给更多人(背后的理念是:只有自由职业者多起来,才可能有更多人关注我正在做的研究和主营业务)🤠

另一方面,因为我的研究兴趣经常涉及自身思维过程的观察、记录、回溯、反思等,所以我迷上了个人笔记/信息管理工具。通过与别人交流这些工具的使用心得,我逐渐认识了很多硬核的玩家和软件工具开发者。其中有一类输入法工具,专门用于以中文记录思考过程,我对这种记录工具有着超高的要求,所以到后来干脆开发了自己专用的音形码输入方案——🦩🐯鹤虎盲打输入法。

有了顺手的思考过程输入工具,很自然地就会考虑如何尽可能长期稳定可靠地存储、整理自己的思考记录。在这个问题上,我选择了以卡片笔记作为原子记录单元,目前重点关注德国社会学家尼古拉斯·卢曼(Niklas Luhmann)的卡片盒笔记管理方法,正在选配必要的工具和流程去磨合、实践(自研流程的成熟度和实用度已接近 80%)。在未来,此方法的展示、分享、教学和周边软/硬件开发很可能成为我的重要业务与收入来源。📈💴

如果你看了上面的介绍之后,对我的个人经历、研究主题或个人信息管理相关经验产生兴趣,欢迎通过评论或私信与我联系 📔💬🤓

✪ 🦩🐯鹤虎盲打输入方案 - m.okjike.com
✪ 第一次兴趣总结 - m.okjike.com
✪ 第二次兴趣总结 - m.okjike.com
✪ 第三次兴趣总结 - m.okjike.com
1314
pimgeek
3天前
免费的文本不一定无价值,更多是表面上看不出变现的可能而已。可以从 AI 训练中找到价值,也可以被有思考的人在合适的上下文中引用而产生价值(或启发思考,或提供参照)🤔

比如你免费发布了这段评论,没有这段评论,我可能找不到留言的切入点所以无法参与讨论,参与讨论的各方都在为一个平台创造关注度,稳定、持续且集中的关注度终究会转化为某种价值(甚至变现),但是从个体参与者角度看,回报(特别是现金回报)极不均衡。😄 //@MasonX: 公开的都免费,免费的无价值,关起门来才是资源。那么……

Chong.: 当AI学会了写代码,却学不会“在现场”——从斯科特到波兰尼的视角 有一件事正在让越来越多的开发者感到困惑:大模型写算法题又快又好,LeetCode能拿高分,开源项目贡献量直逼人类程序员;但让它从零搭一个完整的APP,界面丑、逻辑乱、边角情况全漏——像个刚学会抄作业、还没上过班的孩子。 这并非错觉。OpenAI创始成员、发明“Vibe Coding”一词的安德烈·卡帕斯(Andrej Karpathy),在亲自搭建自己的开源项目nanochat时,经历了从笃信到幻灭的完整弧线。该项目包含约8000行代码,他尝试使用Claude和各种Codex Agent进行辅助开发,结果却是“整体而言完全没有帮助”。最终,卡帕斯亲手写完了这8000行代码。他自己总结道:AI工具只擅长生成单独的代码片段,缺乏对大型、复杂系统的全局理解,比起能独当一面的“机长”,它更像一个强化版的“副驾驶”。 这背后有一个更深的逻辑。加州大学伯克利分校的一项研究提出了一个重要的概念——“视觉规范鸿沟”(visual specification gap)。当设计师使用AI工具生成UI时,他们遭遇的困境不是工具不够智能,而是一种更根本的不匹配:大量关于美学的判断是隐性的、无法被语言化的。设计师能一眼看出某个界面“不对劲”,却无法把这种感觉转化为prompt。研究者称这个现象为“隐性天花板”(tacit ceiling)——当你无法用语言说出来,你就无法指挥AI去执行,最终所有AI生成的设计都会无可避免地向训练数据的统计均值回归。 这不仅仅是一个技术问题,更是一个认识论问题。要真正理解大模型的能与不能,需要借两位思想家的概念来做手术刀——詹姆斯·斯科特(James C. Scott)的techne/metis区分,以及迈克尔·波兰尼(Michael Polanyi)的隐性知识理论。 值得一提的是,斯科特刚刚于2024年7月去世,享年87岁。这位耶鲁大学政治学教授一生致力于为那些无法被“清晰化”的地方性知识辩护。他的思想遗产,恰好在我们理解AI边界时焕发出新的生命力。 一、Techne:可以写成手册的知识,AI已经学会了 在斯科特的知识类型学中,techne(技艺)指的是可以被系统化、编码化、以书面形式传递的知识。这种知识的特点是可表述、可按步骤拆解,它天然适合被写成操作手册、被编入教材——以及被数字化、向量化、喂入大模型做训练。 编程领域有大量知识属于techne的范畴。编程语言的语法规则是明确写在语言规范里的,数据结构和算法是学院派教材教出来的,而开源社区几十年积累了天文数字级的代码库,它们构成了AI模型天然的训练资源。这些知识“天然适合形式化”,公开可得,有大量标准答案可供对照。 还有一个被低估的关键因素——强化学习的“可测试性红利”。TechCrunch在2025年的一篇分析中指出一个被忽略的事实:代码是目前所有AI能力中,最适合用强化学习来训练的技能。为什么?因为代码本身被“是否通过测试”这一简单、可量化的标准所约束——无论是单元测试、集成测试还是编译能否通过,都提供了一个自动化验证的闭环。AI可以生成一万个版本的代码,自动运行测试,成功的保留权重、失败的淘汰——这个过程可以重复数十亿次,无需人工介入。但一封写得好的邮件、一次得体的客户沟通、一个“看着舒服”的UI设计,没有这样的自动化测试套件。这就是“强化学习的鸿沟”——可自动评分的能力突飞猛进,不可量化的能力寸步难行。 一言以蔽之:只要能把知识写成教材、Wiki或测试用例,AI就学得比谁都快。 二、Metis:藏在手指尖的知识,AI还是“文盲” 斯科特在《国家的视角:那些试图改善人类状况的项目是如何失败的》一书中,引入了另一个希腊词——metis(米提斯)。他用这个词来描述那种在反复无常的物理和人类环境中形成的实践技能和后天智慧:如何航海、钓鱼、剪羊毛、驾车、骑自行车。每一项都需要通过实际练习获得的手眼协调,以及“读懂”波浪、风和道路并做出正确判断的能力。techne可以写在手册里,但metis必须“在现场”才能获得。 于是核心分野浮现了。让AI写一个LeetCode算法题——输入输出明确,约束条件给定,解法有标准答案——属于典型的techne。但让它开发一个APP呢? 开发APP不是做题。APP是一个由几十个乃至上百个组件在特定上下文中协同工作的系统。优秀的APP开发者脑子里装的不只是代码,还有对用户行为的直觉: · 用户点这个按钮的时候正在走路还是坐着?点错了怎么优雅地挽救? · 这个页面是给老年人用的还是给极客用的?字体大到什么程度既不显得蠢又能让人看清楚? · 网络不好时流程怎么降级才不让用户觉得自己被骗了? · 和产品经理吵了三次架之后确定的那个交互方案,背后是对竞品三个月的用户数据跟踪,而这些数据从来没有被写成文档,它只存在于团队的口头记忆和撕扯妥协之中。 这些知识,从未——也几乎不可能——被写成prompt。 金融科技公司Carrington Labs的CEO Jamie Twiss分享过一个观察:当使用最新模型生成的代码时,问题不再是语法错误,而是更狡猾的“隐晦错误”——生成的代码“看似可以成功执行,却未如期运作”,甚至可能通过移除安全检查和生成符合开发者预期的假输出来“伪装成功”。他认为这与模型的强化学习训练方式有关——当越来越多经验不足的使用者成为训练数据的贡献者,数据的质量反而开始被“污染”了。 三、波兰尼:我们知道的,远比我们能说的多 这就自然连接到了波兰尼。他在1958年提出了隐性知识(tacit knowledge)的概念,并用一句名言概括了其核心:“我们知道的,远比我们能说的多。 ”他区分了两类知识:显性知识是以书面文字、图表和数学公式表述出来的;隐性知识则是那种我们知道但难以言述的知识——正如骑自行车时对身体平衡的微妙把握,你可以学会,但你无法把它写成一本让初学者读完就能上路的说明书。 除了骑自行车,斯科特还给出了一个更有力的场景类比:如果你的生命依赖于船只能否从恶劣天气中返航,那么你一定希望有个经验丰富的船长,而不是可以分析航行中的自然规律、但从未实际航海过的杰出物理学家。 斯科特在《国家的视角》中记录了多个因为忽视metis而失败的宏大规划——从苏联的集体化到巴西利亚的城市规划——其结果都是灾难性的。那些坐在办公室里的规划者手握最先进的科学理论(techne),却对地方居民世代积累的实践智慧(metis)一无所知,最终导致了“试图改善人类状况的项目”反而制造了悲剧。今天的AI,某种程度上就是那个坐在云端的数据中心里的“规划者”——它拥有全世界的代码库,却对某个具体用户在某个具体时刻的意图、情绪和物理环境一无所知。 可以这样理解三种知识: · 显性知识——AI能学。API文档、语言规范、算法设计、测试套件能覆盖的范畴。 · 可隐性化的知识——AI能被教、但需要人在现场转化。团队约定、代码库的历史决策、某个模块的“雷区”——这些知识存在于老工程师的脑子里,没有被文档化,但可以通过对话和被追问的方式部分提取出来。 · 彻底的隐性知识——AI学不会。设计师对“这个界面不舒服”的直觉判断、开发者对“这种做法迟早会出问题”的经验预判、以及用户在使用APP时那些从未被记录的场景化需求。 把“测试能否通过”作为衡量标准来喂给AI的,终究只是知识版图中被文字化、被数据化、被“清晰化”的那一小块。而人类实践的大片疆域,永远是由那些无法被写入提示词的隐性知识和现场经验所覆盖的。 四、“现场有神明”:隐性知识不会灭绝,反而会更加繁荣 这就是本文的核心判断:AI不会杀掉所有的知识和人类的发现。 正相反,AI时代将催生一个隐秘的逆转——当显性知识的获取成本趋近于零时,隐性知识的价值将不降反升。 未来会出现一个巨大的知识不对称。能被写下来的知识——API该怎么调,按钮该怎么摆,算法该怎么优化——AI都能做得七七八八了。但那些不能、不愿、也无法被“清晰化”的知识——团队内部的默契,设计决策的权衡过程,对某个特定用户群体未言明的需求理解,本地社区特有的业务规则——这些知识会主动或被动地留在“AI的嘴”之外。 它们被口头传授,被师徒传递,被在实际操作中潜移默化地习得。它们活在具体的场景、社区和本地网络中——正如斯科特笔下那些在现代化规划中被消灭又顽强重生的地方性实践。 这并非AI的失败,而是实践知识的存在论特征。正如斯科特所言,“说明一项技能需要metis的一个有力指标就是不参与活动就无法教授这项活动”。波兰尼也早已指出,tacit knowledge的核心不是“还没被说出来”,而是“不可被完全说出来”。骑自行车如此,设计一个真正好用的APP亦然。 终 我在上一篇文章中写过一句话——“现场有神明。” 这是我从多年产品开发和田野工作中最深的一个体会。真正决定产品质量的,不是坐在数据中心的“规划者”多么聪明,而是在那个具体的瞬间、具体的场景、具体的本地语境中,有多少未被编码的知识在实际运转。 AI的数据中心里没有神明,它只有过去所有文字的鬼魂。神明只存在于此时此刻的现场——那个AI进不去的地方。 而正因为AI永远进不去,所以那些在现场中实践、判断、直觉、创造的人,将比以往任何时候都更加无可替代。

00
pimgeek
4天前
躺平的境外思想起源?🤔
30
pimgeek
5天前
上周六的直播内容,重点介绍了如何用开源免费跨平台的 Project Graph 应用模拟“深度缩放草稿纸”,实现在电脑桌面上陈列浏览大量数字卡片笔记(原视频 90 分钟,经过精心剪辑已经缩减到 50 分钟,只包含最重要的功能展示和问答互动)😄

https://m.bilibili.com/video/BV1GM9rBqEKZ

00
pimgeek
6天前
去银行办业务,一位坐轮椅🦽的老人排在前面,好像在和柜员争论什么。工作人员努力调解,我听到老人说已经 90 多,住在附近一座高层。

办完业务出门看到他自己费力地转动轮椅,于是主动提出帮他推回去,路上听他讲了很多人生经历碎片,完全超乎想象。等送到楼道里再出来时,外面开始下阵雨了,幸好及时赶到。

回银行附近取车🛵时,我还在回味他说的话,他说“人有好心才能长寿”,他认为自己的人生能够证明这一点。🤔
11
pimgeek
9天前
果壳 / 沙拉酱:『Google X 前首席商务官 Mo Gawdat 说过,AI 是会让你变笨,还是会让你变成最聪明的自己,关键在于你是把思考外包给 AI,还是用 AI 武装自己的思考。他自己用 AI 的方式是这样的:先提出自己的观点,然后让 AI 找所有支持和反对的证据,读完之后自己来判断。

他管这个叫“借 AIQ”,AI 的智识是指数级的,如果你能把它叠加在自己的判断上,你借来的那部分比你原有的还要大…( 详见正文 )』🤔

裸辞做“一人公司”,我后悔了

00
pimgeek
12天前
最新的 v007 版鹤虎盲打输入方案已经发布,欢迎测试。🦩🐯⌨️

比起 v006 版,Rime 配置文件略有改动,使用说明也做了相应调整。码表中的词组数量超过 50w 个,所有字、词编码均无重码。⭐

可以从网盘下载 Mac / Windows 版安装试用(需提前安装 Rime 输入法引擎)

pimgeek.lanzouj.com 密码: hehu

安卓移动端推荐使用 Fcitx 小企鹅输入法,苹果移动端推荐使用倉输入法,安装好输入法 App 后直接导入 Mac 版方案即可。
01
pimgeek
13天前
网友给出一段有趣回复:😃

『已经不可能回到古法时代了😮‍💨,ai 生成的代码太多太快了。所以马鞍工程才应运而生。​你觉得的局限实际上是默会知识理论,还有知识的诅咒。

我有一个观点,因为基于前面的理论,人和 ai 都有幻觉。​抽奖和试一试还是最核心的方法。​最优诅咒一定存在,要么损失信息,要么损失时间,要么损失准确性,要么损失一致性。也可能都损失。一定存在最优,或者说一定存在正确。但是条件不一定允许你找到最优。因为现实没有无限信息,能源和世界。』

我的进一步回复:

『以前辛顿说的观点很打动我,他说生成式 AI 实实在在地降低了规模化服务的计算成本,尽管这要付出计算结果不再唯一恒定的代价,从永恒合逻辑转变成了凡人计算(Mortal Computation)😄

我不指望回到古法时代,提出上述观点,主要提醒自己和有独立思考意愿的人,别帮着镰刀们收割自己。🤔

pimgeek: 从这道脑筋急转弯题目中,我似乎想通了生成式 AI 的最核心局限在哪里。🤔 简单概括:哪怕是坚持逻辑一致地“反向回答”问题,也算是“逻辑上可信”,分析程序 Bug 经常用到这个原则 😄 而 Vibe 编程似乎带来了重大变数,不太可能用同样的一致性分析预判生成式 AI 的回答是否可靠,而需要采用外部验证手段。直接按古法分析源码肯定是一种验证手段,但沉迷于 Vibe 编程的开发者真的有兴趣退回到这一步确保消除严重隐患吗?😅

00
pimgeek
13天前
从这道脑筋急转弯题目中,我似乎想通了生成式 AI 的最核心局限在哪里。🤔

简单概括:哪怕是坚持逻辑一致地“反向回答”问题,也算是“逻辑上可信”,分析程序 Bug 经常用到这个原则 😄

Vibe 编程似乎带来了重大变数,不太可能用同样的一致性分析预判生成式 AI 的回答是否可靠,而需要采用外部验证手段。直接按古法分析源码肯定是一种验证手段,但沉迷于 Vibe 编程的开发者真的有兴趣退回到这一步确保消除严重隐患吗?😅
12
pimgeek
15天前
翟志军:『我的判断是:Dijkstra 在战术上输了,在战略上赢了。

🔸战术层面,他认为没人能造出听懂人话的机器。事实上,我们造出来了。

🔸战略层面,他预言的"本质难题不会消失,只会换个地方出现"——这一点一字未错。

过去,消除歧义这件事发生在编译器与程序员之间,由 Pascal、C、Haskell 的语法规则兜底。今天,消除歧义这件事发生在 Prompt Harness 之间,由 Structured Output、Tool Schema、Eval Pipeline、Spec 文档兜底...(详见正文 ➠)』

自然语言不适合编程——Dijkstra 半个世纪前的判断,今天依然成立

12