即刻App年轻人的同好社区
下载
App内打开
两斤
86关注29被关注0夸夸
💻全栈工程师 📸摄影师
两斤
1天前
Cohere创始人Nick Frosst的最新访谈,反AGI叙事,直喷Sam Altman。逻辑清晰、说话直接,整个访谈看着让人舒心,真是一个接地气的创始人啊。但千万别以为这是纯娱乐节目,很多观点还是值得我们停下来思考的,学习笔记如下:

1/对AGI的看法
Nick 眼里的 AGI:“你能像对待一个真实的人一样去对待 AI”,就是它能像人一样思考、行动、交流。但 Cohere 不是奔着这个去的,他们是做企业生意的 to B 公司,目标很务实:帮企业提升效率、创造 ROI,不参与 AGI 的宏大叙事。
cohere的打法也很接地气:开发成本比竞争对手低好几个数量级,比如把模型设计成能在两块 GPU 上跑,这样训练成本直接砍下来,靠高效训练和工程优化去跟资金更雄厚的对手竞争。
Nick 看来,现在的 AI 只是增强型工具,不是用来取代人类的神。人类的优势依然在于创造力、洞察力和直觉。

2/对Sam Altman的评价
天天鼓吹 AGI 会带来生存威胁、制造恐慌,只会让政策制定者的注意力跑偏。真正的风险是 AI 可能加剧收入不平等、冲击劳动力结构。夸大 AGI 时间表,还会让行业资源错配,延缓真正有用的技术落地。(还有一句原话:缺钱的人才会到处当显眼包,拼命讲故事博眼球)

3/技术还是一样的
transformer在2017年就发表了,cohere2019年创立,2022年chatgpt才向大众普及transformer,这么多年来几乎所有模型都是在其之上发展,没有发生根本性的改变。技术飞跃和现实情况好像不太对的上,算法没有太大变化,从根本上说,技术还是一样的。这不是说技术没有进步,而是这种进步更多是工程和规模上的优化,是可预测的,而不是magic。

4/基准测试的局限性
Nick 对刷榜没什么兴趣,因为榜单成绩并不能真实反映模型的价值。企业需求和榜单任务往往不匹配,cohere的客户从来不会要求他们的模型做逻辑推理任务,他们更关心的是:能不能帮我处理文档、跑流程、接 API、节省人工成本。

5/prompt的概念会消失
(1)人机交互的趋势
现在大家热衷于讨论prompt,是因为模型还不够懂人,需要用精巧的提示词去引导。但这只是技术早期的过渡阶段,就像PC早期是命令行,后来被图形界面取代了。随着模型理解能力增强、上下文记忆和多模态输入成熟,用户会直接用自然语言、语音、甚至视觉交互完成任务
(2)用户心智的变化
当用户教育完成,模型的能力边界成为常识,prompt就不再重要了,你不会要求你的同事飞天遁地,同样,你也只会要求AI做它力所能及的事情。

6/主权模型的重要性
当交互门槛降低、模型能力边界清晰后,竞争焦点会转向数据主权、部署安全和本地化能力。每个国家应该掌握自己的大模型,减少对单一国家科技公司的依赖。
AI 应促进跨文化、跨地域的交流与合作,而不是成为信息壁垒或政治工具。
00
两斤
3天前
记录一次lenny最新一期与微软副总裁Asha的访谈,笔记如下。

1、产品从 Artifact Organism 的转变

产品本身正在进化。
过去我们开发的产品是静态的、一次性发布间歇性改进的工艺品,发布上线的那一刻,工作就算基本完成了。
AI时代的产品是能学习、持续进化的有机体,用户的每一次accept/refuse都会被当作养分来滋养后台的AI Agent,让它越来越懂你,让界面甚至功能逐渐为你量身定制(有机体这个概念是我第一次听到用来形容AI产品的,拍案惊奇)
今天衡量一个产品团队牛不牛,不是看它发布了什么新功能,而是看你的团队有没有强大的新陈代谢能力,能不能像一个活的生命体一样,快速吸收海量数据->消化用户的反馈->吐故纳新创造更好的体验。我个人把它简称为:感知->适应->再生,这种不断进化的能力本身才是现在一家公司最值钱、最核心的知识产权。

2、后训练崛起与数据循环

产品要获得这种有机体优势,主要靠后训练的力量,它让模型在真实业务循环中不断进化,形成数据飞轮。一旦模型参数量达到300亿这个级别,我们就要认真算算帐了,与其花一笔天文数字从0开始去训练一个不知道效果的模型,还不如在一个已经很强的现有模型上进行持续迭代和优化。
预训练:一次性、大规模、高资本支出。
后训练:持续性、迭代式、高杠杆效应。

这里说的后训练不是一次性微调,而是基于业务反馈的持续再训练。
流程:
-用户交互产生数据
-数据清洗与标注
-模型微调(SFT / RLHF / RLAIF)
-新版本上线 再次收集反馈
-循环加速,形成飞轮效应

3、成功构建 AI 产品的企业特征

可以明显看出,目前市面上取得一定成就的AI公司,基本都遵循这个步骤:先将 AI 融入日常操作以提高效率和优化现有业务流程,打好基础,然后才能更有效地利用 AI 的能力去创新、拓展业务。
为什么这个顺序不能反?
1、没有内化阶段 创新会失血:如果组织内部流程还停留在人工驱动,AI 创新项目会被旧流程拖慢。
2、数据循环是创新燃料:创新型 AI 产品需要大量高质量数据,而这些数据往往来自内部 AI 化的日常操作。
3、文化适配:全员 AI 化不仅是工具使用,更是思维方式的转变,从“交付任务”到“持续优化”。

产品的逻辑发生改变,那么创造产品的公司必然也会发生着组织结构的改变,传统的金字塔式的层级结构已经开始瓦解,为什么?因为静态产品适合金字塔式层级,决策慢但稳定;AI 产品迭代依赖实时数据,信息必须快速流动,层级越多延迟越大,所以金字塔结构的长链路反而成为瓶颈。AI公司的组织结构注定会向扁平化、循环化方向演化,小团队全栈负责一个循环,而不是按职能分割(Loop not Lane)

But!组织和流程变了,不代表 AI 投入就一定有效。
很多公司在这个阶段会掉进“为 AI AI”的陷阱:为了追赶潮流而部署 AI,而不是围绕业务目标和价值流来设计。真正的竞争力并不来自“部署了多少 AI”,而是来自能否用可观测、可评估的方式,把对AI的投入与业务价值绑定。否则,组织可能只是换了流程图,却没有换来增长曲线。

5、Agent社会与组织结构重塑

与传统自动化不同,Agent既深度嵌入到业务系统中,又像虚拟同事一样直接参与流程:它们能感知上下文、与人协作,并根据实时反馈调整策略。

这种变化带来三个趋势:
1️⃣组织架构图 工作流图:在Agent社会中,任务与产出优先于层级。leader更关心“这个任务在哪个环节卡住”,而不是“这个人属于哪个部门”。
2️⃣个人Agent栈(Agent Stack):员工不再专注单一技能,而是携带一套专属的 Agent工具链进入工作场景,形成“人+Agent”的复合型生产单元。
3️⃣任务流驱动的协作网络:跨部门、跨职能的协作变成常态,Agent在其中承担信息传递、数据分析、执行落地等角色,减少了人力在低价值环节的消耗。

6、后训练与强化学习的未来
前面也说过了,大模型的预训练需要巨量数据和算力,几乎是巨头的专属游戏。在已有模型上进行微调、指令优化、领域适配,不仅成本低,而且能针对特定业务需求快速落地。尤其是 RLHF和 RLAIF,能让Agent在真实业务反馈中持续优化决策与行为模式。
可以预见,未来会涌现一批专注于后训练与 RL 基础设施的新公司,为企业提供“训练即服务”(Training-as-a-Service),让中小企业也能拥有高适配度的 Agent。
00
两斤
8天前
我原以为拿掉口罩就已经是想象力的巅峰了,直到我看见了它
00:14
00
两斤
11天前
看完老罗对李想和何小鹏的两期访谈,写写感受。

可能因为他俩都干过技术,所以在技术、AI发展的看法基本相近,这里就不多说了。

李想出身文艺家庭,而且在理想汽车之前写过很长时间的文稿,却有种耿直理工男的可爱。真诚直率让人更容易感受到他的情绪波动,甚至在谈及王兴雪中送炭时落泪了。也正是因为他的耿直可爱,让我感觉冷硬的商业被他说成了热血的生活。

小鹏是正儿八经的计算机理工男,创业前长期干软件工作,却给我感觉更加老练,健谈但话说的更稳,让人感觉说一半留一半,很少有情绪波动,很少正面回答老罗的问题。

而且有个细节不知道大家发现没,李想在访谈的时候大部分时间是胳膊打开的开放姿态,而小鹏基本都是双手交叉的防御姿态。

我觉得可能有南北差异的原因,李想天津人,小鹏湖北人。我更喜欢李想一些😄
20
两斤
11天前
追番!很好奇能从李想和小鹏身上看到哪些不一样的魅力
00
两斤
13天前
周末充电,看完了Chroma创始人Jeff Huber的访谈播客,印象最深刻的是他对RAG的批判和对Context Engineering的理解。建议大家去看原视频,非常精彩。

1.RAG是被滥用的概念,它把检索、增强和生成三个概念混为一谈。人们常把RAG简单理解为向量检索+上下文拼接,这种狭隘的理解容易造成一种错觉:认为简单的检索就能解决大模型的知识和事实性问题。实际上检索只解决了怎么找到信息。

2.真正的难点在于动态管理上下文:在大模型生成回答之前,高效优质的完成上下文窗口的内容填充。而动态管理上下文就是我们常见的上下文工程。我们可以在一个双循环框架中理解上下文工程:

内循环:关注单次请求,为当前这一次的生成内容构建有效的上下文。

外循环:关注系统性改进,也就是如何建立并持续优化一整套能够稳定构建高质量上下文的流程与系统。

3.优秀的AI应用非常擅长上下文工程。一个成熟的上下文工程工作流通常包含这几步:各种算法检索出相关信息后,用小模型重新排序筛选,找到最关键的部分,然后对信息片段进行改写整理,让结构更清晰,方便下游任务使用。

当前市面上的各种AI记忆系统,其实就是这个流程的成果之一。记忆不是简单的存储,而是通过压缩、合并、分类、遗忘等技术对信息进行动态和高效的管理

4.还有一个常见的误解是:随着模型的上下文窗口越来越大,只需要将所有信息塞进去就可以了。但事实证明这条路走不通,当上下文中充斥着大量未经处理的信息,模型就会出现“上下文腐烂(Context Rot)”现象。简单来讲就是模型的注意力会分散,忽略关键指令从而导致推理/回答的质量下降。
00
两斤
14天前
耐心看完老罗对李想的4小时访谈,内容很多,有成长经历、商业决策、家庭观念等等...核心几点整理如下:
1、李想父母在90年代的开明程度确实罕见。让孩子每天玩游戏,18岁月入2万不上大学还支持,背后其实是把"选择权"真正交给孩子。我们都知道大部分家长都是会按社会标准来要求孩子的,但真正的教育,私以为应该是培养孩子的判断能力,让他学会为自己的选择负责。这种教育方式其实很冒险,但一旦成功,孩子获得的是完整的自主性和责任感,受益终生。

2、在整个创业生涯中持续展现对市场变化的敏感。从泡泡网做到汽车之家,再到发现电脑市场负增长后果断转向汽车制造,每次转型都踩在了趋势的节点上。更关键的是,他选择汽车行业纯粹是市场逻辑。一开始根本不喜欢汽车,觉得车展无聊,但该进入还是进入了。连技术路线都是反共识的:别人都搞纯电,他偏要做增程式,就因为觉得解决用户的充电焦虑更重要。

3、从泡泡网当"暴君"到汽车之家被逼宫,李想学到的核心是"越难的事情越要跟团队讲"。很多管理者以为自己扛下所有压力就是负责任,实际上剥夺了团队的价值感。

4、员工开宝马他开Polo,员工住大房子他住小房子,结果员工觉得"你开Polo让我们开什么车"。表面上看这是节俭美德,实际上传递给团队的信号是老板对自己都不好,怎么可能对手下人好。“一个从来不吃糖的人是不可能给别人甜头的”

5、他认为人类的智慧发展已经停滞了很长时间,他有句话我很认同“今天的学校不培养任何的智慧”。未来的AI可能远超人类智慧,人类可能因AI的倒逼而获得唯一一次智慧跃迁的机会。
00
两斤
19天前
逛X看到一篇关于大模型发展分析的好文,跟大家分享一下。

这篇文章核心观点总结为一句话:大模型进入了手机化阶段。

作者基本上是在说,GPT从1到4那种暴力升级的时代结束了,以后就是常规迭代。就像手机从iPhone 4到现在,每年都有进步,但不会再有那种天翻地覆的感觉

几个关键点:
1、GPT4.5那个实验基本宣告了"大力出奇迹"路线的破产。价格贵到离谱($150/M),最后还是要下线。说明光靠堆参数已经撞墙了。
2、以后的商业逻辑会很像芯片厂商:同一代架构做成几个版本,旗舰、次旗舰、入门款,满足不同价位需求。性价比最高的总是次旗舰。
3、我们现在可能就像2010-2012年的移动互联网,表面上看每年进步有限,但拉长时间看仍然是指数级发展。
4、以前大家都在讨论AGI什么时候到来,现在变成了讨论如何在成本约束下做出最好用的产品。可能这才是AI真正走向成熟的标志:从技术突破导向,转向商业可行性导向
00
两斤
22天前
朴实无华的商战~
背景:Augment给我发了一封邮件直接对比展示它和Cursor在100w行代码库上的编程效果。

使用默认IDE配置,没有任何prompt加持,直接要求它俩在现有基础上加一个鼠标悬停预览的功能。

结果:Cursor 需要多次人工提示才能继续,无法可靠地跟踪任务完成情况,最后没能完成这个任务。
Augment 理解了现有代码并进行了扩展,在各个组件中做出了正确的更改,预览功能在第一次尝试就成功运行——无需人工干预。

Augment发这种直观视频来拉客户,对近期的cursor来说无疑是雪上加霜

虽然最近cc风很大,但我确实觉得augment也是独一档的存在,真的很好用(cursor你到底行不行!)
00
两斤
22天前
🥳github 1k star 成就达成
00