即刻App年轻人的同好社区
下载
App内打开
两斤
82关注27被关注0夸夸
💻全栈工程师 📸摄影师
两斤
2天前
筑基成功!可以优雅的当一名测评博主了
00
两斤
2天前
就技术方面而言,真正的专家级工作是架构设计、性能优化、复杂业务逻辑的抽象、技术债务的权衡。这些东西需要的不是"拟合已有经验",而是创造性的思维跳跃

举个例子,当你面对一个分布式系统的一致性问题时,解决方案可能需要你对CAP定理、业务特性、团队能力、运维成本进行综合权衡。这种决策过程,本质上是个创造过程,不是模式匹配

更关键的是,专家和新手的差异,往往体现在"知道什么不该做"上。一个资深工程师可能花80%的时间在思考风险、避坑,而不是在写代码。这种"负面知识"很难通过神经网络学到,因为训练数据里更多是"成功案例"。

现阶段,AI确实是个很厉害的实习生,能帮你加速干活,但真正的技术决策还得靠人。而且越是复杂的项目,这个边界就越明显。

当然,这个瓶颈未来可能被突破,但至少现阶段,"越接近光速就越慢"这个比喻确实很准确
00
两斤
3天前
把gpt4.5还给我!!!
00
两斤
4天前
近两个星期在vibe coding一个AI评测平台(自己用的)。一开始设想的交付物是一张表格,首行是评测纬度,首列是模型名称,中间对应分数。迭代了3版才把一开始的模糊需求完全想清楚,坑不少,收获很多。vibe coding的意义具象化了
00
两斤
4天前
try it!
00
两斤
8天前
趁着周末整理最新一期Dario(Anthropic CEO)的访谈,技术内容基本没有,但是可以帮大家更立体的了解Anthropic这家公司或者说了解Dario这个人,他是如何如何看待使命感、开源趋势和最近Claude Code调整收费规则的事情。建议大家看一遍原视频,我个人最大的感受是,原来卷毛有着近乎偏执的救世主情结。

访谈内容如下:

## Q1:很多人给你贴上"AI末日论者"的标签,但你又在拼命加速AI发展,你不觉得这很矛盾吗?

**A1:**
"末日论者"这个标签,不仅是错的,而且是对我的一种侮辱。我父亲曾因癌症去世,而几年后特效药就问世了,我比任何人都更痛恨"技术发展得不够快"。
我的逻辑很简单:**正是因为我看到AI能创造美好的世界,我才更有责任去提醒大家规避风险,不然大家就等不到美好世界的到来了。**这不叫"末日论",这叫"风险管理"。我的做法是用更高的安全标准,逼着整个行业一起卷质量,而不是比谁跑得快。

> **我的思考:** 经典的硅谷精英式说辞:**"未来是美好的,但必须由我来定义什么是美好"**。用"拯救生命"这样的崇高目标来为自己的行为赋予正当性。这种替全人类做风险评估的大家长心态,真的不需要被审视吗?

## Q2:现在很多人都在唱衰,说大模型的"回报递减"要来了,你怎么还在鼓吹"指数级增长"?

**A2:**
所谓的"回报递减",很大程度上源于人类对"指数增长"的直觉性误判。一条指数曲线,在它真正"起飞"之前,看上去总像一条平庸的直线。互联网在90年代也是如此,没人想到它会爆发。
我们在Anthropic内部看到的数据,无论是模型能力,还是公司营收,都清晰地画出了一条陡峭的指数曲线。我们目前看不到任何能阻止这条曲线继续向上延伸的物理或技术瓶颈。
我承认,未来有不确定性,但这更像是一种远虑。现在就断言"回报递减",要么是对指数增长的威力一无所知,要么就是一种自我安慰。

## Q3:批评者说,大模型有健忘和无法持续学习的毛病,这个硬伤不解决,它就永远是个玩具。你怎么看?

**A3:**
这个论点混淆了"完美"和"有用"。就算模型永远有"健忘"这个毛病,它依然是地球上最有用的"工具"之一。
这就像一个诺奖级别的生物学家,就算他老了、不看新论文了,光靠他脑子里的存货,照样能碾压99%的同行,做出惊人的突破。我们现在的大模型,就是这样一个知识渊博但有点健忘的"老专家"。
技术上,我们有很多方法在缓解这个问题,比如不断扩展的"上下文窗口"(理论上可以扩展到人一生的信息量),以及通过强化学习(RL)的内外循环结构来模拟记忆。AI领域过去有无数个被认为是"根本性障碍"的问题,最后都被证明是工程问题。我相信"持续学习"也是如此。

> **我的思考:** 翻译一下就是,**就算这东西有缺陷,它也比你们强,也能为世界带来巨大好处**。别问这么多,跟大哥走就行了。

## Q4:Meta、Google这些巨头有花不完的钱,你们Anthropic拿什么跟他们拼?靠"使命感"发电吗?

**A4:**
我们的核心竞争力不是钱多,而是"**花小钱,办大事**"的能力。我们的人才密度和资本效率极高,能用1亿美元,做出别人花10亿美元才能做出来的东西。这才是投资者看重我们的原因,也是我们营收能每年增长10倍的底气。
至于人才,我们拒绝"雇佣兵文化"。你不可能用钱买来一个顶级人才对公司使命的真正认同。我们坚持公平的薪酬体系,不为某个"明星"开特例、破坏文化。选择留在Anthropic的人,是因为他们真的信我们要做的这件事。这种"使命感"不是用来发电的,它是我们最坚固的护城河,是金钱挖不走的。

> **我的思考:** "使命感"和"纯粹"是无法被证伪的。当一个领导者将公司的竞争力归因于一种崇高的、不可量化的道德优势时,他实际上是在建立一种排他的文化壁垒。这种**"信我者,跟我来"**的模式,也天然地排斥了那些可能有不同价值观、但同样才华横溢的人。

## Q5:你们为什么不像其他公司那样做C端App,或者把AI塞进现有产品,而是死磕企业API这个看似"不性感"的生意?

**A5:**
因为我们认为,**企业对顶尖智能的需求,比个人消费者更迫切、也更具价值**。
举个例子,一个模型从"本科生"水平进化到"博士生"水平,对普通消费者来说,体验可能只是从"还不错"到"挺厉害"。但对一家制药公司来说,这意味着新药研发周期可能缩短一半,他们愿意为此付出的价格,可能是前者的十倍、百倍。
这种来自企业的、对"极致能力"的渴求,是逼着我们把模型做得更聪明的最强动力。专注于企业用例,能让我们的技术突破,直接应用在解决生物医药、金融、法律等领域的真实难题上,这比做一款娱乐App带来的影响要深远得多。

## Q6:Claude Code的定价一度很混乱,有人说你们在"亏本赚吆喝",你们到底是怎么算账的?

**A6:**
承认,早期定价确实是在"交学费",我们对用户怎么用、用多少,理解还不够。现在已经调整了。
但说我们"亏损",这是一个常见的误解。**"我们用现有模型赚20亿,再花100亿去研发下一代模型。你说这公司是亏是赚?"**
我们财报上的"亏损",本质上是对未来的"研发投资"。每一个已经上线的模型本身都是盈利的,但我们把这些利润,以及融来的资金,全部投入到了下一代更强模型的训练中。这是在为未来的指数级增长进行布局,和业务本身健不健康是两回事。

## Q7:开源模型满天飞,你们的闭源生意会不会被"农村包围城市"?

**A7:**
"开源威胁论"是一个伪问题。它错误地把AI模型的竞争,套用到了传统软件的开源模式上。
传统开源,你能看到并修改源代码。但AI的"开源",你拿到的是一堆"权重",你看不到模型内部的运作原理,更像一个黑箱。所以它应该是"开放权重",而不是"开放源码"。
更重要的是,就算权重开放了,普通公司也玩不起。托管和运行这些巨型模型,成本极高,技术极其复杂。模型的好坏,最终是靠性能说话,不是靠"出身"。我们自信能提供比任何开源模型都更强大、更可靠、更高效的服务。这才是竞争的关键。

## Q8:你从物理到生物,再到AI,一路跨界,很多人看不懂。你到底图什么?你的终极目标是什么?

**A8:**
我这一路,追求的不是某个特定技术,而是一个词:**"影响力"**。我父亲的经历让我很早就明白,我的人生目标是"让世界变得更好"。
我最初投身生物学,是想攻克疾病。但我很快发现,生物学的复杂度,已经超出了人类大脑的处理极限,单个科学家的努力就像往大海里扔石子。
我转向AI,不是因为我爱写代码,而是因为我发现,**AI是唯一能帮助人类,去系统性地理解和解决"生物学级别"复杂问题的工具**。它是放大人类智慧、弥合知识鸿沟的唯一杠杆。
创立Anthropic,也是因为我觉得其他公司的路径,并没有真正专注于创造我所追求的那种"正和博弈"式的影响力。我想要的,是建立一个真正以解决人类根本性难题为使命的组织,无论这条路有多长、多难。

> **我的思考:** 完全的救世主情结。将个人的生命体验,上升为驱动一家顶级AI公司的核心使命,并用"正和博弈"这种看似普世的价值观来定义"好"的未来。当一个手握通用人工智能这种终极杠杆的人,坚信自己是在替全人类做好事时,这种权力是缺乏制衡的。

> 尽管Dario和Sam早就散伙了,但这种**"为了你好,我来替你决定未来"**的大家长式善意,还真是不是一家人不进一家门。
40
两斤
8天前
耗时整个周末,我深度提炼了 Anthropic 联合创始人 Jared Kaplan 的最新访谈精华。在 AI 圈,无论你是产品经理还是创业者,如果不看A社的消息那基本宣告掉队。我将这次高质量访谈浓缩为6个核心观点,每一条都极具含金量,值得反复深思。

--------------------

背景:Jared Kaplan,现为 Anthropic 联合创始人,前 OpenAI 研究员,是神经网络 Scaling Law现象的核心发现者之一。

--------------------

### **核心观点摘要** ###

**一、关于 Scaling Law 的现状与应用**

法则依然有效:Scaling Law 是当前诊断 AI 训练问题的核心工具。当模型训练结果未达预期,感觉 Scaling Law “失效”时,首要原因大概率是训练流程、数据或代码中存在缺陷。

**二、关于 AI 的经济学与价值悖论**

强模型价值凸显:当前 AI 发展极不均衡。尽管小模型成本更低,但市场更青睐前沿的大模型。因为最强大的模型能更好地“端到端(end-to-end)”完成复杂任务,其便利性远超需要对任务进行拆解和编排的小模型集群。

价值驱动而非成本驱动:技术进步通常带来成本下降和普及,但 AI 领域呈现相反趋势。虽然AI的训练和推理效率在提升,但前沿模型解锁的巨大价值创造了更多需求。因此,用户愿意为性能更强的模型支付高昂费用,而不是一味追求低成本。

**三、关于未来 AI 能力的衡量框架**

Kaplan 提出了一个二维衡量框架:

Y 轴(灵活度/Adaptability):指 AI 适应和处理多模态任务的能力。

X 轴(任务完成时长/Task Completion Time):指 AI 解决复杂问题的速度。未来 AI 可能在几周甚至几天内,完成过去人类在物理学等领域需要50年才能取得的进展。

**四、通往人类水平 AI 的四大关键要素**

1. 领域知识整合 (Relevant Organizational Knowledge):AI 需深度融合特定领域的专业知识与隐性经验(例如,将资深专家的工作流和经验融入上下文)。

2. 长时记忆 (Memory):在执行长周期、复杂的任务时,AI 必须具备构建和调用记忆的能力,以保持任务的连续性和一致性。

3. 价值校准 (Alignment/Calibration):必须将 AI 的“品味”和判断力与人类细腻的情感、审美乃至价值观进行对齐。

4. 复杂任务执行力 (Complex Task Execution):AI 的能力需要超越文本,扩展到能操作软件、调用工具等多模态、多步骤的复杂任务。

**五、给产品构建者/创业者的核心建议**

“立即动手构建”(Build Now):要跟上 AI 的发展,最好的方式就是“去构建那些看起来尚不完美的产品”。当前模型的能力或许有限,导致很多创意无法完美实现。但大模型的能力边界正以惊人的速度扩展,今天看来笨拙的产品,也许明天就能“起飞”。

**六、AI 发展的核心挑战与机遇**

加速整合是关键机会:AI 技术本身的发展速度,已远远超过了我们将其有效整合到产品、公司流程和科学研究中的速度。因此,【利用 AI 工具来辅助、加速 AI 技术的部署和应用】,将是未来一个极其重要的机会点。
00
两斤
12天前
最近刷YouTube时看了一期《硅谷101》播客,聊的是AI Agent领域的投资热潮。看完之后感触很深,这个赛道的火热程度已经超出了我的想象。动辄几十亿美元的收购、上百亿美元的估值,投资人已经杀红眼了,钱的问题都不叫问题...

两位投资人(Fusion Fund的张璐、Cyber Creation Ventures的周炜)从技术和商业角度深入分析了Agent市场,特别是AI编程工具的崛起、垂直领域的机会,以及初创公司如何在巨头环伺的环境下找到自己的护城河。我个人觉得比较有意思的是,他们还对比了中美两国在To B市场的投资逻辑差异,这对国内的创业者来说绝对是干货。

下面我整理了播客的核心内容,希望能给大家一些启发。
10
两斤
14天前
多可爱
00