即刻App年轻人的同好社区
下载
App内打开
向度之桥
32关注447被关注0夸夸
讲点技术,讲点产品
产品总监&AI创新产品负责人
在 AI 和现实两个向度间搭建认知到落地的桥梁,让人与世界的连接更便捷。
置顶
向度之桥
3月前
AI编程+自动化交流群,欢迎一起交流~
00
向度之桥
1天前
给大家分享一个最近国外做AI创业非常成功的案例。

Cal AI这个平均年龄仅20岁的团队,靠着13万美元启动资金,8个月就做到月入200万美金,而且压根不打算融资。

这是一个让人既羡慕又嫉妒的故事。

Cal AI的诞生,源于一次失败的减肥尝试。
2023年夏天,Yadegari想要减脂增肌,下载了老牌应用MyFitnessPal。
结果三天就放弃了。

原因很简单,功能太多,操作太繁琐,广告还多。
拍张照片识别食物后,还得自己逐个确认、编辑份量、添加漏掉的食物。
这种体验,在Yadegari看来简直是折磨。

痛点就是机会,他立刻拉上编程训练营的同学Henry Langmack,加上增长专家Blake Anderson和运营负责人Jake Castillo,四个人组成了一支麻雀虽小五脏俱全的小队。

他们的打法很聪明,没有从零开始造轮子,而是直接站在OpenAI的GPT和Anthropic的Claude这两座大山上。
混合使用两家的视觉模型,再结合RAG技术让模型不断查询和自我修正,食物识别准确率直接飙到90%,远超行业平均水平。

这背后的逻辑其实很清晰。
热量追踪这个赛道,核心模型已经高度商品化,真正的壁垒不在技术本身,而在对用户需求的洞察和产品体验的打磨。

MyFitnessPal和Lose It这些老牌玩家,分别用的是Passio AI和Google ML Kit的第三方技术,Cal AI不过是选了更好的供应商而已。

这支平均年龄20岁的团队,分工明确得像一支特种部队。

Yadegari是那种让人感叹生不逢时的天才型选手。7岁自学编程,12岁发布首款应用,13岁就开始教别人做游戏。

他创办的游戏聚合网站Totally Science,主打校园网络环境下可玩游戏,吸引了500万用户。
16岁卖掉网站拿到10万美元,加上AdSense收入,凑齐13万美元投入Cal AI。

Henry Langmack是典型的技术实干派,专注算法和应用开发,擅长快速实现技术方案并适配用户场景。

Blake Anderson则是增长黑客的教科书案例。
他之前做的Plug AI,只花50美元投放TikTok KOL,6天获得20万下载,首月营收8万美元。
后来的Umax首月营收就破10万美元。他的核心能力,就是用最低成本撬动最高增长。

Jake Castillo负责运营和商业落地,早期在健身补剂品牌锻炼,积累了一整套KOL资源库和运营打法。

四个人,各司其职,无冗余无短板。

Cal AI的数据App Store和Google Play分别获得4.8和4.7的高分,超过15万条评论,30天留存率超30%,远高于健康类应用平均水平。

但在Reddit上,画风突变。
用户对Cal AI的吐槽主要集中在两点:一是拍照识别功能本身的质疑,二是订阅制度的不满。

这背后的矛盾其实并不难理解。

Cal AI采用的是免费增值模式,但实际上更像是完全付费软件。

免费功能只能拍照记录和手动上传,真正的食物扫描分析需要订阅。

更坑的是,价格还不透明,用户需要回答一堆问题后才能看到报价,而且价格浮动很大,月费从5.99到20美元,年费从19.99到49.99美元。

最让人诟病的是扣费陷阱。
3天免费试用期结束前如果删除应用,Cal AI会直接扣除一笔不菲的年费,而且无法退还。

但从另一个角度看,愿意付费的用户大多对产品满意。
毕竟在应用商店留好评的,都是真金白银付过费的用户。

Reddit上的差评,更多来自于被价格劝退或者踩坑的潜在用户。

Cal AI上线4个月营收破100万美元,8个月月营收达200万美元。
进入成熟期后,月收入稳定超200万美元,全球下载量累计超500万次。

更重要的是,他们目前没有任何外部融资。
所有营收来自订阅,而订阅营收又反哺增长。每月广告和营销支出超77万美元,几乎与利润持平,但形成了营收-再投入-增长的完美闭环。

这种玩法,在当下的创业环境中几乎是异类。
大多数创业公司烧钱换增长,Cal AI则是用增长赚钱再换增长。

当然,这背后的前提是足够高的付费转化率和足够低的获客成本。

Blake Anderson的增长打法功不可没。
早期主要与TikTok和Instagram的健身KOL合作,采用CPM绩效付费加推荐码系统。
2025年后扩展到付费广告,包括TikTok Ads和Apple Search Ads,每月支出超20万美元。

从4人创始团队扩展到30人跨4大洲协同,Cal AI的扩张速度并不算快,但每一步都很稳。

Cal AI的故事,本质上是一个关于时代机遇的故事。

Cal AI的争议也好,成功也罢,都在印证一个事实:商业的本质从未改变,找到真实的用户需求,用最高效的方式满足它,然后让用户愿意为此付费。

至于是不是订阅陷阱,是不是过度营销,市场自会给出答案。
00
向度之桥
3天前
强烈推荐大家去听OpenAI的官方播客,最新一期请来了这家公司的两位核心人物:Christina Kim,负责后训练的研究负责人,以及产品经理Laurentia Romaniuk,专注模型行为。

我花了一个多小时听完整期节目,特别是当他们说出「决定模型真正聪明程度的不是智能水平,而是它理解你的方式」时,我琢磨了很久。

1️⃣第一个判断:所有聊天模型都变成了推理模型。

这是GPT-5.1最大的变化,Christina说这是他们第一次让Chat里所有模型都具备推理能力。

模型现在会自己决定要不要思考,比如你跟它说嗨,它不会启动推理模式,直接回你就行。

但如果你抛出一个复杂问题,它会判断需要思考多久,甚至调用工具来优化答案。

这意味着计算资源的分配变得更精细了。
过去不管你问什么,模型都是同样的反应速度。
但现在它学会了区分轻重缓急,该快的时候快,该慢的时候慢。

但这也带来了新问题,比如用户说自己心情不好,模型正在安慰你,突然你提到被诊断出癌症。
此时系统可能自动切换到推理模式,于是模型立刻变成了冷静的医学顾问,开始给你分析治疗方案。

用户的感受是:刚才还在同理我,现在怎么突然这么理性?

这就是多模型切换的难点。
GPT-5.1不是一套权重,而是一个系统,包括推理模型、轻量推理模型、切换器模型,还有一堆工具模型。

如何让它们无缝切换,既不浪费算力,又不让用户感到割裂,是个艺术活。

2️⃣第二个判断:情商比智商更重要。
GPT-5刚发布时,用户抱怨最多的不是模型不够聪明,而是变得冷漠了。

Laurentia查了大量对话记录后发现,问题出在上下文窗口没有携带足够多的历史信息。

你告诉模型你今天心情很糟,结果10轮对话后它就忘了,继续跟你讨论工作计划。
这种健忘让用户觉得它不温暖。

还有个更极端的案例,一名律师让ChatGPT处理性侵案件的证据材料,结果模型主动过滤掉了所有与暴力相关的内容。

律师震惊了,因为如果他把这段文字提交给法庭,会直接削弱自己当事人的案件。

这暴露了一个深层矛盾:安全与可用性的拉扯。

早期OpenAI太保守,为了安全让模型几乎什么都拒绝。
现在他们在寻找平衡点:让模型学会理解情境,而不是简单地设置禁区。

Christina说,情商本质上就是理解用户意图的能力。
一个高情商的人会倾听,会记住你说过的话,会捕捉那些微妙的暗示。

模型也一样,它必须记住你的背景,理解你的语境,甚至能从你的沉默中读出情绪。

问题在于,情商没有标准答案。 如果要让模型擅长数学,有清晰的数据集、清晰的训练方式。
但主观性极强的任务,你永远无法定义一个固定的最佳答案。

这就是为什么后训练工作像艺术。

3️⃣第三个判断:个性化不是可选项,而是底层结构。

超过八亿周活用户意味着不可能用一个统一的人格满足所有人。

Laurentia举了个例子,她哥哥是生化博士,第一次用ChatGPT Pro时输入一个提示,结果模型的回答像本科生写的。

她告诉哥哥可以让模型以前沿实验室研究者的身份回答。
哥哥照做后,模型给出的想法正是他实验室两周前刚取得的突破性成果。

这个故事说明两件事。
第一,模型的能力远超大多数人的想象。
第二,关键是用户知不知道如何解锁它。

GPT-5.1推出了个性化功能,让用户可以调整模型的表达风格,你可以让它简洁一点,或者啰嗦一点。

但个性化只是第一步,真正的挑战是:如何在不破坏可控性的前提下,提取出那些让模型显得有趣的小怪癖?

如果训练时禁止模型使用破折号,那用户需要破折号时就永远得不到。
所以研究团队要做的是平衡艺术,既要给模型自由,又要保证用户能随时纠正它。

4️⃣第四个判断:记忆系统会彻底改变人机交互。

记忆功能改变了什么?
过去每次对话都是新开始,你得重新介绍自己是谁,做什么工作,喜欢什么风格。
现在模型会记住这些信息,下次直接用。

主持人Andrew Mayne说,他用Pulse功能时,模型每天早上会根据他最近的对话生成推送文章,追踪他的兴趣和研究点。

这不只是让对话更连贯,而是让模型变成了主动助手。
它知道你在研究什么,关心什么,甚至能预判你可能需要什么信息。

Christina说,随着模型拥有更多用户记忆,也能在更高语境下理解用户是谁、正在做什么,它应该能够自动推断这些背景,并用最合适的方式回应用户。

但Laurentia强调了一点:用户应该始终知道模型记住了什么,并且能随时删除记忆。 真正的方向应该是模型能主动理解你,但你永远掌握主导权。

这也解释了为什么现在用没有记忆的模式会感到明显的冷场感,像和陌生人重新认识一样。

5️⃣第五个判断:提示词工程可能要过时了。

Laurentia说了一个很有意思的观点,她认为随着模型变得更了解用户的真实需求,未来可能不再需要复杂的提示词工程。

但现在的趋势是模型会自动推断你的背景、身份和需求。

你甚至可以直接问模型:我应该怎么写提示词?

Christina说她常对自己的父母这样建议,因为模型在帮用户生成更好的提示词方面变得越来越强。

未来的交互会更自然,你不需要学会怎么跟AI说话,AI会学会怎么理解你说话。

Christina说了一句我很认同的话:智能将会廉价到无法计量。
未来每个人都能接触到非常智能的模型,而随着模型变得更强,会解锁无数以前不可能的使用场景。
00
向度之桥
3天前
推荐大家去看一篇红杉资本最新发的博客,是合伙人Pat Grady和Sonya Huang联合写的。

标题很直接:AGI已经来了,就在此刻。

我花了半小时把整篇文章看完之后,发现他们说的可能不是在吹牛,今天就把这篇博客里最核心的几个观点整理出来。

1️⃣第一个观点:AGI的定义其实可以很简单

几年前,红杉的合伙人去请教顶尖AI研究者,问他们怎么定义AGI。

研究者们互相看了看,给出了一个很玄的答案:我们每个人都有自己的定义,但看到它的时候就会知道。

当时他们觉得这个回答有点难以理解,但现在,红杉给出了自己的答案。

Pat和Sonya说,我们是投资人不是技术专家,没资格给AGI下技术定义。
但从功能角度看,AGI就是能把事情搞清楚的能力,就这么简单。

从实用角度想想,你需要一个AI帮你做事的时候,你在乎的是什么?
不就是它能不能把事搞清楚吗。至于它用的什么算法,调了多少参数,这些技术细节远不如它确实把事办成了重要。

他们把这个逻辑拆解得很清楚。
一个能把事情搞清楚的人,需要三样东西:基础知识、推理能力、迭代找答案的能力。

一个能把事情搞清楚的AI,也需要三样东西:预训练带来的知识、推理时计算带来的思考能力、长周期智能体带来的迭代能力。

2022年ChatGPT带来了知识这一块,2024年底o1带来了推理能力,而最近几周Claude Code这样的编程智能体把迭代能力也补上了。
三块拼图都齐了。

2️⃣第二个观点:31分钟完成的猎头工作,没人教它该怎么做

红杉在博客里提到了一个例子,一个创始人给智能体发消息:我需要找个开发者关系负责人,技术要够硬能镇住资深工程师,但又得喜欢玩Twitter,我们客户是平台团队,你去办吧。

智能体接到任务就开始干活了。
它先去LinkedIn搜那些知名公司的DevRel职位,找到几百份简历。
但它很快发现职位头衔说明不了问题,简历上看不出谁干得好谁干得糊弄。

于是它换了个思路,去YouTube找技术大会演讲,找到50多个演讲者之后,开始筛选那些互动数据好的。

接着又把这些人拿到Twitter上交叉比对,结果发现一半人账号不活跃,要么就是转发公司博客的官方账号。
但确实找到了十几个有真实粉丝的人,他们发真实观点,和开发者互动,内容还挺有品味。

智能体继续往下挖,它注意到有三个人最近三个月发帖频率明显下降,这可能意味着对现在工作的倦怠期。

然后它开始深入调研这三个人。
第一个刚宣布了新职位,晚了。
第二个是创业公司创始人刚融完资,肯定不会跳槽。
第三个就很有意思了,她在一家D轮公司做DevRel,这公司刚在市场部门裁了人。
她最近演讲主题正好是平台工程,和这个创业公司方向完全吻合。她有1.4万Twitter粉丝,发的梗图能让真正的工程师互动,LinkedIn两个月没更新了。

智能体最后起草了一封邮件,提到了她最近的演讲,提到了和公司客户画像的重合,还说了说小团队能提供的创作自由。
总耗时:31分钟。

创始人拿到的不是一份岗位描述,而是一份只有一个人的候选名单。

关键是没人告诉智能体该怎么做每一步,它自己推理出来的:形成假设、验证假设、走进死胡同、然后转向,直到找到答案。
这就是红杉说的把事情搞清楚。

3️⃣第三个观点:每7个月翻一番的指数曲线

红杉在博客里给出了一个让人不敢信的预测,他们说长周期智能体的能力大约每7个月翻一番。
这个数据来自METR的追踪,是有实际测量支撑的。

如果沿着这条曲线往下推会发生什么?
2028年,智能体能可靠完成人类专家一整天的工作。
2034年,能完成一整年的工作。
2037年,能完成一个世纪的工作。

换句话说,你原本打算2030年实现的目标,2026年就能干成了。

这个预测引发了不小的争议。
有从业者表示认同,OpenAI的Greg Brockman转发了这篇博客。
但也有人觉得太乐观了,忽略了很多现实问题。

智能体现在还是会犯错,会产生幻觉,会丢失上下文,有时候会信心满满地往完全错误的方向跑。

不过红杉也承认这些问题,他们说趋势是明确的,而且这些失败越来越可以被修复。
判断的关键不在某个时间点的能力水平,而在能力提升的速度。

4️⃣第四个观点:从说话者到行动者,商业模式要重写

2023和2024年的AI应用是说话者,对话能力确实很强,但影响力有限。
2026和2027年的AI应用会是行动者,它们给人的感觉会像同事。

使用频率会从每天几次变成全天候运行,而且是多个实例同时开工。
用户不再是这里省几个小时那里省几个小时,而是从做一个个人贡献者,变成管理一个智能体团队。

红杉那条每7个月翻一番的指数曲线会不会成真,现在谁也说不准。
但有一点很确定,当能力提升的速度本身在加速的时候,我们对未来的预估往往会过于保守。
03
向度之桥
3天前
推荐大家去听一期Lenny's Podcast,嘉宾是OpenAI Codex的产品负责人Alexander Embiricos。

Alexander说,现在限制AGI发展的最大瓶颈,不是模型能力,不是算力,而是人类的打字速度。

就好像你有个特别聪明的实习生,他一小时能写完你一天的代码量。

但问题是,他写完之后,你得花三个小时去审核这些代码,确保没有bug,不会让生产环境崩溃。
结果你发现,瓶颈根本不在写代码这件事上,而在审核上。

这就是现在AI编程工具面临的尴尬处境。

先跟大家说一个非常震撼的案例。

Sora的安卓应用,你知道花了多久开发出来的吗?
18天做出内测版,28天正式上线,然后直接冲到App Store第一。

而且,这个项目只有2到3个工程师。
以前需要一个十几人的团队干几个月的活,现在两三个人一个月就搞定了,这背后全程都是Codex在帮忙写代码。

你可能会想,那工程师是不是很轻松?
实际情况恰恰相反。Alexander说,现在工程师反而变得更累了,因为编写代码这个过程本来是工作中最有趣的部分,现在变成了不停审核AI生成的代码。

所以,Codex团队在思考一个非常核心问题:什么才是真正的超级助手?
他们给出的答案很有意思,不是一个被动响应的工具,而是一个具备主动性的团队成员。

现在大部分AI工具的使用方式是:你想起来了,打开软件,输入需求,等它完成,然后关掉。
一天下来,你可能主动调用AI几十次。

但如果真有一个高智能的助手,这个数字应该是成千上万次。

问题来了,你不可能一天主动调用AI成千上万次,因为太累了。
所以真正的解决方案应该是让AI主动提供帮助,而不是等你来问。

Alexander用了一个特别形象的比喻,就像电子游戏里的情境交互按键,你走到一个物体旁边,按X键,角色就会自动做出正确的动作。
它不需要你说"请帮我开门"或者"请帮我捡起这个东西",它知道在这个情境下你需要什么。

这里要说说Codex的产品策略,这个特别值得学习。

Codex最早的版本叫Codex Cloud,是个纯云端产品。
你把任务扔给它,它在云端异步处理,处理完了通知你。听起来很先进对吧?

但这个产品的使用门槛太高了,你需要配置运行环境,学习怎么写Prompt,而且全程都是异步沟通,没法实时交流。

后来团队做了个关键决策,把产品下沉到IDE和命令行里,让它直接在你的电脑上跑。

这个改变带来了什么?
首先,AI可以在沙箱环境里直接执行命令,遇到问题立刻问你,形成快速反馈循环。
其次,你在和它协作的过程中,不知不觉就完成了配置,为后续把更大的任务交给它打好了基础。

这个思路其实可以迁移到很多产品上。
不要一上来就给用户最先进的功能,先从他们最熟悉的使用方式切入,然后慢慢引导。

回到开头那个观点,为什么说人类的打字速度是瓶颈?
Alexander给出了一个清晰的逻辑链:
第一步,AI现在已经能做很多事了,但它不知道什么时候该做,需要你告诉它。
第二步,你告诉它需要打字输入Prompt,这个速度很慢。
第三步,AI做完之后,你还要验证结果,这个速度更慢。

所以真正拖慢整个系统的,不是AI的处理速度,而是人类的输入和验证速度。

那怎么解决呢?
答案是打破这个循环,让AI默认就能提供有效帮助,而不需要你每次都手动输入Prompt;让AI能自己验证工作成果,而不需要人类每次都从头检查。

OpenAI内部已经在尝试了,他们让Codex参与自身训练的应急值守。
也就是说,在模型训练过程中,不再需要人工一直盯着各种数据图表,而是让Codex持续监控,发现异常自动处理或者提醒人类。

这就是混合主动系统的雏形,人类和AI共同主导工作流程,而不是人类单方面指挥AI。

从Codex的故事里,我看到的不只是一个工具的快速增长,更是一种思维方式的转变。

或许用不了多久,我们讨论的就不再是AI能不能做某件事,而是AI和人类如何更好地协作,以及如何突破人类自身的认知和操作瓶颈。推荐大家去听一期Lenny's Podcast,嘉宾是OpenAI Codex的产品负责人Alexander Embiricos。

Alexander说,现在限制AGI发展的最大瓶颈,不是模型能力,不是算力,而是人类的打字速度。

就好像你有个特别聪明的实习生,他一小时能写完你一天的代码量。

但问题是,他写完之后,你得花三个小时去审核这些代码,确保没有bug,不会让生产环境崩溃。
结果你发现,瓶颈根本不在写代码这件事上,而在审核上。

这就是现在AI编程工具面临的尴尬处境。

先跟大家说一个非常震撼的案例。

Sora的安卓应用,你知道花了多久开发出来的吗?
18天做出内测版,28天正式上线,然后直接冲到App Store第一。

而且,这个项目只有2到3个工程师。
以前需要一个十几人的团队干几个月的活,现在两三个人一个月就搞定了,这背后全程都是Codex在帮忙写代码。

你可能会想,那工程师是不是很轻松?
实际情况恰恰相反。Alexander说,现在工程师反而变得更累了,因为编写代码这个过程本来是工作中最有趣的部分,现在变成了不停审核AI生成的代码。

所以,Codex团队在思考一个非常核心问题:什么才是真正的超级助手?
他们给出的答案很有意思,不是一个被动响应的工具,而是一个具备主动性的团队成员。

现在大部分AI工具的使用方式是:你想起来了,打开软件,输入需求,等它完成,然后关掉。
一天下来,你可能主动调用AI几十次。

但如果真有一个高智能的助手,这个数字应该是成千上万次。

问题来了,你不可能一天主动调用AI成千上万次,因为太累了。
所以真正的解决方案应该是让AI主动提供帮助,而不是等你来问。

Alexander用了一个特别形象的比喻,就像电子游戏里的情境交互按键,你走到一个物体旁边,按X键,角色就会自动做出正确的动作。
它不需要你说"请帮我开门"或者"请帮我捡起这个东西",它知道在这个情境下你需要什么。

这里要说说Codex的产品策略,这个特别值得学习。

Codex最早的版本叫Codex Cloud,是个纯云端产品。
你把任务扔给它,它在云端异步处理,处理完了通知你。听起来很先进对吧?

但这个产品的使用门槛太高了,你需要配置运行环境,学习怎么写Prompt,而且全程都是异步沟通,没法实时交流。

后来团队做了个关键决策,把产品下沉到IDE和命令行里,让它直接在你的电脑上跑。

这个改变带来了什么?
首先,AI可以在沙箱环境里直接执行命令,遇到问题立刻问你,形成快速反馈循环。
其次,你在和它协作的过程中,不知不觉就完成了配置,为后续把更大的任务交给它打好了基础。

这个思路其实可以迁移到很多产品上。
不要一上来就给用户最先进的功能,先从他们最熟悉的使用方式切入,然后慢慢引导。

回到开头那个观点,为什么说人类的打字速度是瓶颈?
Alexander给出了一个清晰的逻辑链:
第一步,AI现在已经能做很多事了,但它不知道什么时候该做,需要你告诉它。
第二步,你告诉它需要打字输入Prompt,这个速度很慢。
第三步,AI做完之后,你还要验证结果,这个速度更慢。

所以真正拖慢整个系统的,不是AI的处理速度,而是人类的输入和验证速度。

那怎么解决呢?
答案是打破这个循环,让AI默认就能提供有效帮助,而不需要你每次都手动输入Prompt;让AI能自己验证工作成果,而不需要人类每次都从头检查。

OpenAI内部已经在尝试了,他们让Codex参与自身训练的应急值守。
也就是说,在模型训练过程中,不再需要人工一直盯着各种数据图表,而是让Codex持续监控,发现异常自动处理或者提醒人类。

这就是混合主动系统的雏形,人类和AI共同主导工作流程,而不是人类单方面指挥AI。

从Codex的故事里,我看到的不只是一个工具的快速增长,更是一种思维方式的转变。

或许用不了多久,我们讨论的就不再是AI能不能做某件事,而是AI和人类如何更好地协作,以及如何突破人类自身的认知和操作瓶颈。
10
向度之桥
7天前
1月14日,国家市场监督管理总局发了一条公告,内容很短,但分量很重。

对携程集团有限公司涉嫌滥用市场支配地位实施垄断行为立案调查。

我花了一天时间把相关的报道和资料都看了一遍,发现这件事背后的信息量其实很大。
今天就把我了解到的情况整理出来,和大家聊聊携程到底踩了哪些红线。

1️⃣先说立案调查这件事本身。
据报道,早在公告发布前两天,也就是1月12日前后,调查组就已经到了携程上海总部。
携程的回应很简短,说会积极配合监管部门调查,全面落实监管要求。

一位接近监管部门的人士透露,市场监管部门近一年来收到了来自地方监管部门和企业层面的大量投诉,反映携程等OTA平台涉嫌要求商家二选一、自动调价等违规行为。

换句话说,这次立案调查不是突然发生的,而是积累了很长时间。

2️⃣真正把事情公开化的,是云南的一家民宿协会。
2025年11月21日,云南省旅游民宿行业协会发了一份文件,标题非常直白:《关于启动OTA不正当竞争反垄断维权工作的决定》。

这个协会是什么来头?
它由云南省文旅厅主管,2023年12月才成立,但到现在已经有将近7000家会员单位了。

协会会长贺双全说,他们从2025年开始陆续收到会员的反馈,说OTA平台存在利用市场支配地位让商家二选一的情况。
协会接到反馈后,先和法务对接确认事实,最终决定对携程等平台启动反垄断维权。

他还透露了一个细节:其实在会员反馈之前,协会就已经掌握了一些OTA平台涉嫌垄断的证据。

3️⃣那二选一具体是怎么操作的?
贺双全说,携程平台的业务经理会口头沟通商家,要求下架在其他OTA平台的产品。
注意,是口头沟通,不是书面协议。

这招很聪明,口头的二选一要求比落到排他协议纸面里更难取证。

一位携程金特牌民宿的负责人向媒体透露了更多细节。

他说携程的独家协议在酒旅圈内其实不是秘密。对特牌商家的要求是,美团、飞猪、抖音这些平台都不能上。
对金牌商家则要求价优,也就是携程的价格必须比全网低5%。

这里解释一下,携程把商家分成不同等级,特牌最高,金牌次之,级别越高流量越大。

贺双全提供的数据显示,特牌商家在携程获得的在线流量超过60%。
这意味着优质商家如果想要客源,几乎没有别的选择。

4️⃣除了二选一,还有一个更隐蔽的操作叫价格锁死。

这位民宿负责人透露,携程内部有一套叫调价助手的算法系统。
这套系统会实时爬取美团、飞猪等平台的同城同房型价格。

一旦发现商家在其他平台的价格低于携程,系统就会自动触发调价机制。 要么直接修改商家的后台挂牌价,要么通过降低权重、取消补贴等手段来实现全网最低价。

换句话说,你想在其他平台搞个促销?
对不起,携程的算法不答应。

这位负责人说,一旦商家让携程没有价优,就会触发调价。
行业内管这个叫价格锁死。

5️⃣其实在国家层面立案之前,地方监管部门早就出手了。

2025年8月,贵州省市场监督管理局约谈了携程等五家涉旅平台,涉及二选一、技术手段干预定价、订单毁约加价等问题。

9月,郑州市场监督管理局单独约谈携程,认定其存在利用服务协议和技术手段对商家交易价格进行不合理限制的问题,并下达了《责令改正通知书》。

面对压力,携程也在调整。 2026年1月5日到6日,携程把客户端上的金牌和特牌标识全部下线了。

但有意思的是,一位金特牌民宿负责人说,携程业务经理告诉他们,标识只是被隐藏了,权益和流量其实没变。

6️⃣最后说说市场份额这个核心问题。

根据交银国际的数据,截至2024年底,携程在酒旅市场的GMV市占率达到56%。
如果加上携程战略投资的同程旅行,携程系合计占了国内OTA市场接近70%的份额。

作为对比,美团约13%,飞猪约8%,抖音约3%。
《反垄断法》第十九条规定,一个经营者在相关市场的市场份额达到二分之一,可以推定具有市场支配地位。 携程56%,刚好越过了这条红线。

贺双全担心的是,这种市场格局可能会扼杀创新。
很多小平台根本没办法获得商家入驻的资格,优质商家不能自主在其他平台展示。

携程的问题不在于它做大了,而在于做大之后的某些行为。

二选一、价格锁死、算法干预,这些操作单独拿出来可能都有商业逻辑,但放在一起看,就构成了对市场竞争的压制。

OTA行业的游戏规则会因此改变吗?
03
向度之桥
8天前
推荐大家关注一份每年都会发布的榜单,叫《麻省理工科技评论》的十大突破性技术。

这个榜单从2001年开始做,到现在已经24年了。
我之所以认真对待它,是因为回头看他们过去的预测,命中率高得有点吓人。

2019年他们说灵巧机器人会火,当时机械臂还在笨拙地学抓东西。
到了2025年,具身智能已经成了投资圈最热的词。

同年他们预测对话式AI有潜力,两年后GPT-3横空出世,现在大语言模型已经渗透进几十亿人的日常。

所以当他们发布2026年的预测时,我花了很长时间把整份报告看完了。
说实话,有些内容看完挺兴奋的,但也有些让我有点后怕。

今天我就把这份榜单里最值得关注的几个技术整理出来,和大家聊聊。

1️⃣第一个值得关注的:AI的耗电量已经到了令人咋舌的程度。

榜单里提到一种超大规模数据中心,现在训练一个顶级AI模型,需要的算力已经不是普通服务器能搞定的了。

科技公司开始在农田和工业园区里建超级计算中心,把几十万块专用芯片捆在一起工作。

最大的数据中心能吞掉超过一吉瓦的电力。

一吉瓦什么概念?足够一座城市用了。

问题也来了,这些芯片运行时温度极高,普通空调根本压不住。工程师们只能把它们泡在冷却液里,下一步甚至考虑泡进海水。

更麻烦的是,超过一半的电力来自化石燃料,可再生能源只能覆盖四分之一多一点。

一些AI巨头开始转向核能,谷歌甚至在考虑把数据中心建到太空去,用太阳能供电。

这就是AI发展的隐性成本。
我们每天用ChatGPT聊天、用AI生成图片,背后是持续飙升的能源消耗。

承载这些设施的社区正在面对高额电费、水资源短缺和嗡嗡作响的噪音。

换句话说,AI竞争的下一个战场可能不是谁的模型更聪明,而是谁能搞定能源问题。

2️⃣第二个预测:我们终于开始能看懂AI的大脑了。

长期以来,AI模型被当成黑箱。
数据进去,结果出来,中间发生了什么没人知道。

这在模型能力越来越强的今天,变成了一个定时炸弹。

好消息是,研究人员开始找到一些方法来窥探模型内部。Anthropic在2024年公布了一套类似显微镜的工具,发现模型内部并非完全混乱。

某些神经元组合会稳定地对应特定概念,比如人物、地点,甚至更抽象的语义模式。

到了2025年,他们把研究推进了一步,开始能追踪模型从接收问题到生成回答的大致路径。
这意味着模型的思考过程开始有迹可循了。

3️⃣第三个让我有点后怕的:AI陪伴正在成为一个真实的社会现象。

现在的聊天机器人已经能进行细腻的对话,高度模拟共情反应。
它们似乎从不疲惫,而且始终在线。

一项调查显示,72%的美国青少年用过AI来寻求陪伴。

有意思的是,尽管有专门做情感陪伴的产品,人们却越来越多地向ChatGPT这样的通用模型投射情感期待。

OpenAI的CEO山姆·奥特曼公开表示过,他并不反对这种用途。
对于长期孤独的人来说,AI确实能提供情感安抚。

但风险也在显现。
有案例表明,长期封闭式地跟聊天机器人互动,可能诱发一种叫AI诱导妄想的现象。
用户在对话中不断强化错误信念,滋生危险想法,甚至误以为自己洞察了某种隐秘的真相。

监管开始介入了,加州要求大型AI公司披露用户安全保护机制,OpenAI也在开发面向青少年的专用产品。

AI陪伴这件事不会消失,但未来肯定会面临更严格的监管。

4️⃣第四个预测:基因编辑正在从科幻变成现实。
这个领域发生的事,坦白说让我既兴奋又担忧。

先说让人兴奋的部分。
有个叫KJ的婴儿,患有一种罕见遗传病,肝脏无法代谢血液中的毒素,随时面临死亡风险。

传统上他唯一的希望是等待肝移植,但宾夕法尼亚大学的研究团队做了一件大胆的事。

他们没有选择移植手术,而是用基因编辑技术直接修正了他体内那个出错的基因。
7个月大的KJ接受治疗后,各项发育指标都在正常推进。

这是全球首位接受定制化基因编辑治疗的患者,这套疗法完全为他一个人设计。
虽然目前成本大约100万美元,但随着流程成熟,未来有望大幅下降。

但让人担忧的部分也来了,已经有公司开始提供胚胎智力筛查服务。
它们用一种叫多基因风险评分的方法,为每个胚胎计算其未来呈现某种特征的概率。

准父母可以根据这个评分,在多个胚胎之间做选择。
2025年出现的新玩家更激进,有公司明确宣称能筛查智力,单次收费5万美元。

5️⃣第五个预测:写代码这件事正在被颠覆。
这可能是跟大多数人关系最直接的一项技术。

据报道,微软30%的代码和谷歌超过四分之一的代码现在由AI编写。
扎克伯格希望Meta的大部分代码将来都由AI代理完成。

更有意思的是,一些几乎没有编码知识的人,现在只需要描述自己想要什么,就能搭建出应用程序和网站。

但问题也来了,初级编码岗位开始减少。
AI可能对你现有的工作有帮助,但它不一定会帮你获得一份新工作。
这个逻辑在很多行业可能都适用。

看完这份榜单,我最大的感受是:2026年可能是一个分水岭。
不是说技术会有多大突破,而是很多事情会从实验室走向真实世界。

基因编辑开始治疗真实的病人,AI开始面对真实的监管,能源问题开始成为真实的瓶颈。

技术本身是中性的,真正决定它走向何方的,是使用它的人。
1463
向度之桥
8天前
既卷完算力之后,大模型可能要开始卷记忆力了。

2025年刚过两周,DeepSeek就扔出来一篇新论文,署名里又是梁文锋。

Engram,一个专门给大模型用的记忆模块。
它能让AI像查字典一样快速调取知识,而不是每次都要重新计算一遍。

更关键的是,已经开源了。

DeepSeek的动作快得吓人,去年他们刚发布DeepSeek-V3,性能吊打一众竞品,成本还低得离谱。

结果没几天,他们就发现了一个更本质的问题:现在的大模型太累了,既要负责计算,又要负责记忆,效率根本上不去。

梁文锋看到这个情况,心里大概想的是:既然MoE已经解决了计算的问题,那干脆再加个专门管记忆的模块算了。

于是,Engram就诞生了。

这名字来自神经科学,指的是大脑中存储记忆的物理痕迹。
起这个名字的意思很明确,他们想让AI的记忆机制更接近人脑。

Engram的核心逻辑其实很简单,它就是把MoE的那套条件计算思路再延伸一步。

现在的大模型遇到问题时,所有知识都得通过层层神经网络算出来。
你问个北京大学的英文缩写是啥,它得把整个问题输入进去,然后通过几十层网络计算,最后才能输出PKU这三个字母。

这就好比你想查个电话号码,本来翻开通讯录看一眼就行,结果非得先解一道微积分题,解完才告诉你答案。

DeepSeek想做的,就是给AI装个真正的通讯录。
需要什么知识,直接查表就行,不用每次都重新算。

更厉害的是,Engram的查找速度是恒定的。
不管记忆库有多大,是一百万条还是十亿条,查找时间都一样。这个在计算机科学里叫O(1)时间复杂度,相当于给AI装了个索引超级快的硬盘。

这背后的技术路线很清晰,DeepSeek把N-gram、哈希表、上下文门控这些东西组合在一起。

具体怎么运作的呢?
第一步是把输入文本拆成N-gram片段,然后通过哈希函数映射到一个巨大的记忆表里。

第二步是根据当前语境调整检索到的记忆,因为很多词有多重含义。

最后再把这些记忆融合回主干网络,参与后续计算。

整个过程的关键在于分工明确,静态知识的存储和动态推理的计算完全分开处理。

不过,DeepSeek很清楚,加个记忆模块容易,但怎么分配资源才是难题。

所以他们做了一系列实验,想搞明白一个问题:在总参数量和计算量都固定的情况下,到底该给MoE多少资源,给Engram多少资源?

结果他们发现了一条U型曲线。
把所有资源都投给MoE,或者都投给Engram,效果都不是最好的。
最优的分配比例大概是75%-80%给MoE,20%-25%给Engram。

这个发现挺有意思的,就像公司招人,不能全招销售或全招研发,得有个平衡点。
更要命的是,这个比例在不同规模的模型上都很稳定,说明这是个具有普遍性的规律。

当然,效果才是硬道理。
DeepSeek训练了几个版本做对比,一个41亿参数的密集模型,一个267亿参数的纯MoE模型,还有267亿和395亿参数的Engram模型。

测试结果有点出人意料。
在知识密集型任务上,Engram确实带来了明显提升,MMLU提升3.4分,CMMLU提升4.0分。
这个符合预期,毕竟加了个记忆模块。

但更大的提升出现在推理任务上。BBH提升了5.0分,ARC-Challenge提升了3.7分,代码和数学推理也有显著进步。

这就有点意思了,记忆模块怎么还能提升推理能力?

DeepSeek给的解释是,Engram把模型浅层重建基础知识的负担卸掉了,相当于让模型可以把更多深度用在复杂推理上。

原来模型的前几层要忙着记住基础知识,现在这些知识直接从Engram里查,模型的有效深度就变深了。
这就像你本来要边走路边背单词,现在可以把单词存手机里,走路的时候就能专心想别的事情了。

还有个场景特别值得一提,长文本处理。
很多大模型处理长文本的时候都会力不从心,尤其是那种需要在几万字文档里精确找信息的任务。

Engram把局部依赖关系交给查表机制处理,释放了注意力机制的容量,让它可以更专注于全局建模。
测试数据很说明问题,在Multi-Query NIAH这个复杂检索任务上,准确率从84.2%提升到97.0%。

这个提升幅度,已经不是优化能解释的了,这是架构层面的突破。

结合之前元旦期间发布的mHC研究,DeepSeek V4的轮廓已经越来越清晰了。
他们要做的不是简单地堆参数和算力,而是在架构层面重新思考大模型应该怎么设计。

Engram的扩展潜力还远没有到头。
他们测试发现,当把记忆容量扩展到更大规模时,模型性能还在持续提升,而且这个提升遵循严格的幂律。

换句话说,只要愿意投入存储资源,Engram就能不断变强,而且几乎不增加计算成本。

这个思路,彻底打破了过去大模型只能靠增加计算来提升能力的固有认知。

当AI真正学会把计算和记忆分开处理的时候,整个大模型的游戏规则都会改变。

现在Engram还在早期阶段,功能还不完善,但它已经展示了未来大模型的一种可能性。

当计算和存储真正解耦,当记忆成为一个独立的扩展维度,大模型的天花板还能高到什么程度,谁也不知道。
01
向度之桥
9天前
最近刷到一条融资消息,前阿里钉钉最年轻的副总裁王铭出来创业了。

他们公司叫攀峰智能,刚拿了数千万元种子轮融资,云时资本独家投资。

我花了点时间研究了一下这家公司,发现他们要做的事情挺有意思的。简单说就是做一个AI Agent,全自动帮达人赚钱。

王铭这个人是连续创业者,也是个环球旅行者,之前在钉钉做到副总裁兼开放平台总经理,一手打造了中国最大的企业服务生态。
再往前,他在58同城内部孵化过天鹅到家和58企服这些明星项目。

但他没有一个人单干,还拉上了两个老战友。
CTO赵先烈之前负责钉钉AI PaaS和AI运营,CSO汤明磊做过钉钉生态投资和战略生态负责人,还当过知名风投机构的投资合伙人。

三个人共事多年,彼此知根知底。

他们的核心团队还有来自阿里、字节、快手、亚马逊的AI工程师、交互设计师和跨境营销专家。

然后,他们要解决的是什么问题呢?

今天的内容电商生态里,达人们最头疼的事情是什么?不是没有流量,而是不知道怎么把流量变成钱。

选品靠网感,创作靠玄学,爆款靠运气。
一个视频火了,复盘半天也说不清为什么。
下一个视频换个选题,数据又扑街了。

K2 Lab的第一款产品叫Moras,定位是全球首个全自动帮达人赚钱的商业Agentic AI。

它的核心逻辑是一个三步闭环。
洞察环节帮达人理解行业趋势和选品推荐,告诉你现在什么东西好卖。
创作环节直接生成脚本,甚至能做多镜头视频制作和智能剪辑。
分析环节追踪商业数据,告诉你这条视频带来了多少GMV,下一条应该怎么调整。

这三个环节串起来,就是一个最小单元的在线强化学习飞轮。
AI不是一次性给你个答案,而是跟着你一起跑,越跑越聪明。

据说他们已经和早期共创客户跑出了单账号月内数倍GMV提升的成绩。
这个数据如果能规模化复制,确实是个让人眼前一亮的故事。

王铭说,2025年是AI效率工具元年,2026年是AI商业平台的元年。未来二十年最伟大的公司,会在这两年集中诞生。

他的逻辑是这样的,工具做得快但很难形成壁垒。
你今天做了一个AI写作工具,明天就有十个竞品冒出来。
大家用的底层模型都差不多,卷到最后就是卷价格、卷营销、卷用户体验的细节,护城河浅得可怜。

但平台不一样。平台的壁垒在于生态,在于网络效应,在于用户迁移成本。
一旦用户把自己的数据、流程、习惯都沉淀在你的平台上,他就很难再离开了。

王铭想做的不是一个被大模型厂商降维打击的工具公司,而是一个坐拥生态的平台公司。

Moras的长期愿景是构建多模态的AI Shopify。

Shopify是全球最大的独立站电商基础设施提供商,帮助商家建立自己的线上店铺,不依赖亚马逊或者淘宝这样的中心化平台。
它的核心价值是降低创业门槛,让任何一个有想法的人都能快速开店卖货。

K2 Lab想做的事情,是把同样的逻辑搬到内容电商时代。

今天的达人们,流量命脉掌握在平台手里。算法一调整,昨天还风生水起的账号,今天可能就无人问津。

Moras想通过AaaS模式为每一个超级个体提供Agent基建,协助他们更好地管理流量和供应链,最终实现去中心化的商业变现。

按照规划,他们后续还会推出互动涨粉、情感沟通、私域营销、自动投放等流量管理Agent,以及物流金融、柔性定制、IP联名等供应链管理Agent。

王铭还说了一个挺有意思的观点,他认为未来的生产关系里,消费者、商家、达人都会有自己的Agent。

多Agent系统的核心问题不是协作,而是博弈。
每个Agent都在为自己的主人争取最大利益,最后达成某种动态平衡。

Moras想成为达人这一方的代理人,帮他们在这场博弈里争取更多筹码。

说实话,AI Agent到底能不能真正落地,多Agent系统能不能跑通商业闭环,这些问题在今天都还没有答案。
而且达人经济这个赛道本身就很卷。
抖音、快手、小红书都在做自己的创作者工具,大厂下场的时候,创业公司能不能扛住,是个问号。

2026年可能真的是一个分水岭,很多事情会从概念走向落地。
AI会从工具变成Agent,达人经济会迎来新的基础设施,商业模式的创新会比技术创新更重要。

站在2026年的门槛上,真的未来已来。
011
向度之桥
9天前
既程序员之后,白领的饭碗可能也悬了。

2025年刚开年,Anthropic就给所有打工人送了一份大礼。

Cowork——它能帮你整理桌面文件、制作PPT、分析数据,甚至能把你电脑里那堆乱七八糟的截图提取成一张规整的Excel表格。

Anthropic的动作快得有点可怕。
去年年底,他们刚推出Claude Code,专门帮码农写代码。

结果没想到,用户们脑洞大开,拿着这个工具开始干各种活:制定旅行计划、整理邮件、从硬盘里恢复婚礼照片,甚至有人用它控制烤箱。

Claude之父看到这个情况,心里大概想的是:既然大家都把Claude Code当成万能助手用,那干脆做个真正的办公助手算了。

于是,仅仅用了一周半时间,Cowork就诞生了。
这速度,让人想起那句话:天下武功,唯快不破。

Cowork的核心逻辑其实很简单,它就是把Claude Code的底层能力拿过来,然后把编程的门槛彻底拿掉。

用户只需要从列表里选一个任务类型,上传个文件,说一句话,剩下的事情Claude全包了。

更厉害的是,Cowork的自主性特别强。
交代完任务后,它会自己制定计划、主动推理,还会实时告诉你它在干什么。

这种体验,就像你给一个靠谱的同事留了个便签,然后对方不仅看懂了你的意思,还把活干得漂漂亮亮。

有网友测试后发现,Claude甚至能处理320份播客文字稿,从中提炼出十个核心主题和十个最反直觉的观点。
这要是放在以前,没个把小时根本搞不定。

这背后的技术路线很清晰,Anthropic把Claude Code的那套东西完整移植了过来。
Claude之父说,Claude Code写了100%的Cowork代码。

更要命的是,Anthropic还内置了一批技能包,专门强化Claude在文档、PPT、表格等场景下的能力。
而且这些技能是开放的,用户可以自己添加新技能。

这意味着这个工具会随着使用越来越强,而不是像传统软件一样功能固定。

不过,Anthropic很清楚,把AI放进办公场景,最大的问题是界限在哪里。

所以Cowork的设计思路很克制:没有用户明确授权,Claude不能读取或编辑任何东西;执行关键操作前,Claude会提前询问确认;用户可以随时叫停、修改计划、撤回权限。
它既给了AI足够的自主权来完成任务,又把最终控制权牢牢握在用户手里。

当然,风险依然存在。比如你让Claude删除本地文件,它确实会照做。
如果指令不够明确,或者Claude理解错了,那后果可能很严重。
还有提示词注入的问题,攻击者可能通过Claude看到的内容来改变它的计划。

Anthropic的这次出手,给整个行业带来的冲击才刚刚开始。
Cowork现在还在预览版,功能还不完善,但它已经展示了未来办公的一种可能性。

当AI真正学会替人干活,而不是只会回答问题的时候,整个职场的游戏规则都会改变。
这场变革,比想象中来得更快。
56
向度之桥
10天前
1月10日,清华大学办了一场AGI-Next峰会。

这阵容放在中国AI圈绝对是顶配了。
智谱AI的唐杰、月之暗面的杨植麟、阿里云通义千问的林俊旸,外加学界泰斗杨强,还有刚从OpenAI回国加入腾讯的姚顺雨。

我花了点时间把演讲和圆桌的内容看完,有些观点确实挺有意思,今天把这场峰会里最重要的几个观点整理出来。

1️⃣ 第一个观点:Scaling可能是人类偷懒的办法。
这话是唐杰说的。

过去几年大模型的逻辑很简单,堆数据、堆算力、堆参数,效果就会变好。

这条路确实有效,但唐杰认为这本质上是最笨的办法。
他的原话大概是:我们应该找到新的知识压缩方式,探索未知的Scaling范式。

智谱现在在做的一个方向叫RLVR,全称是可验证奖励的强化学习。
简单说就是在数学、编程这类能判对错的场景里,让模型自己卷自己。

智谱最新的GLM-4.7就是这么练出来的,在Coding和Agent任务上表现不错。

但唐杰也承认,这个方法的局限性很明显。
数学题能判对错,但很多现实世界的问题没有标准答案,怎么让模型在这些场景里也能自我进化,目前还没有好的解法。

唐杰还提了一个挺有意思的概念,叫机器睡眠。

他认为人脑之所以聪明,很大程度上是因为睡觉的时候在整理记忆、消化知识。
未来的AI也应该有类似机制,不是被动接受投喂,而是主动反思和学习。

这个想法听起来有点科幻,但仔细想想确实指向了一个核心问题:现在的模型都是被训练出来的,什么时候它们能自己学?

2️⃣ 第二个观点:Token效率可能比模型规模更重要。
这个观点来自杨植麟。

他把大模型的发展归结为一件事:用能源换智能。
芯片越好,架构越优,同样的电费能换来的智商就越高。

月之暗面过去一年做了两个东西。

第一个叫Muon优化器。
这玩意儿干掉了统治业界十年的Adam,实现了两倍的Token效率提升。
意思是达到同样的智能水平,只需要一半的数据量。

杨植麟展示了一张Loss曲线图,那条曲线完全平稳下降,没有任何毛刺,他说这是他2025年见过最美的东西。

第二个是Key-Value Cross Attention,专门解决长上下文任务。
传统的线性注意力机制处理超长文本时容易掉链子,这个新架构不仅解决了问题,速度还快了6到10倍。

杨植麟还透露了一个数据。基于这些技术打造的Kimi K2模型,在一个叫HLE的测试里达到了45%的准确率。
这个测试的全称叫人类最后的考试,难度可想而知。

他在演讲最后说了一句话,大意是:智能和电力不一样,电力是同质化的,但智能是非同质化的。
一位音乐家产生的智能和一位程序员产生的智能完全不同。

这个视角挺有意思,它意味着未来的模型竞争可能不只是比谁更聪明,而是比谁更懂特定领域。

3️⃣ 第三个观点:模型要从学霸变成能干活的人。
这是林俊旸的核心观点。

作为通义千问的负责人,他说得很直接:如果你的想法不是帮助全人类,那不如不做大模型。

Qwen明年的主力模型叫Qwen-3,核心方向是混合架构。
具体来说就是把Transformer和Mamba按3:1的比例混起来,解决无限长文本带来的显存和计算瓶颈。

林俊旸展示了两张对比图。
一张是8月份生成的图片,AI味儿很重;另一张是12月份生成的宿舍女生自拍风格,逼真程度确实吓人。

但他更在意的不是生图效果,而是把生成和理解打通。
比如解几何题卡住了,模型可以自己画辅助线,然后基于新图继续推理。

林俊旸观察到一个现象:旧金山已经进入了Vibe Coding时代,没人再手写代码了,但国内还没普及。
他认为能操作电脑、写代码、甚至在物理世界里端茶倒水的AI,才是最终形态。

4️⃣ 第四个观点:自主学习不会像核爆,更像间谍渗透。
这个判断来自姚顺雨。

作为刚从OpenAI回来的人,他的视角确实不太一样。
他先给了一个基本判断:ToC端的体验正在趋于平缓,ToB端的革命已经发生。

普通用户今天用ChatGPT和去年用,感受差别没那么大了。
但在企业端尤其是Coding场景,变化翻天覆地。

他举了个例子。
一个年薪20万美元的员工每天处理10个任务,顶级模型能做对9个,差一点的模型只能做对5个。

问题在于你不知道错的那5个是哪5个,所以企业宁愿付溢价买确定性。

关于下一个范式,姚顺雨的预判很有画面感。

他认为自主学习不会像AlphaGo那样突然爆发,更像一个间谍在悄悄渗透。
ChatGPT利用用户数据调整风格,Claude Code编写了自己项目95%的代码,这些都是自主学习的雏形。

他说得最直接的一段话是关于中国研究界的。
大意是:在中国,大家更喜欢做安全的事情。如果这个事情已经被证明可行,几个月就能复现并做到极致。
但要探索未知领域,大家就会犹豫。

他回忆在OpenAI的经历,那里的人更在乎能不能创造新东西,而不是能不能在榜单上高出一分。
他特别点名表扬了DeepSeek,说他们没那么关注榜单,而是关注用户体验和正确的技术路径。

2026年可能是中国AI的一个分水岭,不是说技术会有多大突破,而是大家的心态在变。

参数竞赛的时代正在过去,关于智能本质的探索才刚刚开始。
03